"수백 장의 이미지나 수십 분짜리 영상을 한 번에 이해하고, 그 안의 맥락을 놓치지 않고 분석하는 AI가 있다면 어떨까?"
Eagle 2.5는 바로 그 상상을 연구 수준에서 현실로 끌어내린 프로젝트입니다. 기존의 비전-언어 모델(VLM)들이 대부분 짧은 문맥(short-context) 이해에 초점을 맞춘 것과는 달리, Eagle 2.5는 긴 문맥(long-context)에서의 멀티모달 이해를 지향합니다.
이 논문이 흥미로운 이유는 단순히 "더 긴 입력을 처리한다"는 일반적인 진보를 넘어서, 정보 보존 중심 샘플링(Information-first Sampling)과 점진적 훈련(Progressive Training) 안에서 사용자의 실제 맥락 보존 및 일관된 성능 향상에 반응할 수 있도록 설계되었다는 점입니다. 예를 들어, 영상의 전체 스토리와 세부 클립을 모두 이해하는 QA를 동시에 학습시키는 식이죠. 이제 진짜로 'AI가 영상 전체의 맥락을 읽는 시대'가 나타난 거죠.
Eagle 2.5가 도입한 가장 눈에 띄는 개념은 바로 "정보 보존 중심 샘플링(Information-first Sampling)"입니다. 이는 이미지나 영상 데이터를 샘플링할 때, 단순히 잘라내거나 압축하는 것이 아니라, 원본의 의미와 맥락을 최대한 보존하도록 설계된 방식입니다.
이러한 특징은 실제로 Image Area Preservation(이미지 영역 보존)과 Automatic Degrade Sampling(자동 저하 샘플링)이라는 두 가지 기술로 구현되며, 이를 통해 문맥의 손실 없이 긴 입력을 효과적으로 처리하는 게 Eagle 2.5의 강점입니다.
이 모델은 총 3단계의 훈련 과정을 거쳐 만들어졌습니다:
Eagle 2.5의 핵심 기술적 특징은 크게 세 가지 측면에서 살펴볼 수 있습니다.
1. 정보 보존 중심 샘플링(Information-first Sampling)
이는 이미지와 텍스트의 핵심 정보를 최대한 보존하면서 데이터를 샘플링하는 방식입니다. 기존의 무작위 샘플링이나 고정된 비율 압축과 달리, Image Area Preservation으로 원본 이미지의 면적과 비율을 최대한 유지하고, Automatic Degrade Sampling으로 텍스트 정보를 우선 보존하면서 시각 정보를 유연하게 조절합니다. 이로써 긴 입력에서도 정보 손실을 최소화하며, 실제로 성능이 꾸준히 증가하는 효과를 보였습니다.
2. 점진적 혼합 훈련(Progressive Mixed Post-Training)
이 특징의 핵심은 훈련 중 입력 길이를 점진적으로 늘리는 컨텍스트 확장 훈련에 있습니다. 처음에는 짧은 입력으로 시작해 점차 긴 입력으로 확장함으로써, 모델이 다양한 길이의 입력에 자연스럽게 적응하도록 만듭니다. 이 방식은 기존의 고정 길이 훈련보다 훨씬 효율적이며, 실제로 긴 문맥에서의 성능 저하 없이 일관된 결과를 보장합니다.
3. 스토리-클립 통합 데이터셋(Eagle-Video-110K)
마지막으로 주목할 만한 점은 자체 구축한 Eagle-Video-110K 데이터셋입니다. 이 데이터셋은 스토리 단위(전체 영상의 챕터별 QA)와 클립 단위(짧은 클립별 QA)를 동시에 제공합니다. 특히, GPT-4o를 활용해 다양한 질문 유형을 생성하고, 앵커(anchor)를 사용해 클립 정보를 전체 스토리와 연결합니다. 이는 실제 영상 이해에서 맥락을 놓치지 않고, 세부와 전체를 모두 파악하는 데 큰 장점이 있습니다.
Eagle 2.5의 성능은 다음과 같은 실험을 통해 검증되었습니다.
1. Video-MME 벤치마크에 대한 성능
최대 512프레임의 입력을 사용하는 Video-MME 벤치마크에서, Eagle 2.5-8B 모델은 72.4%라는 높은 점수를 기록했습니다. 이는 GPT-4o, Qwen2.5-VL-72B, InternVL2.5-78B 등 대형 상업/오픈소스 모델과 대등한 수준이며, 특히 입력 프레임 수가 늘어날수록 성능이 꾸준히 향상된다는 점이 인상적입니다.
2. 고해상도 이미지/영상 이해
고해상도 이미지와 긴 영상에서의 이해 능력 평가에서도, 기존의 짧은 문맥 기반 모델 대비 더 높은 정확도와 일관성을 보였습니다. 특히, 정보가 분산된 긴 입력에서도 맥락을 놓치지 않고 답변하는 능력이 뛰어났습니다.
3. 실제 응용 시나리오에서의 평가
실제 영상 요약, 장면별 QA, 스토리라인 분석 등 다양한 응용 환경에서 테스트한 결과, Eagle 2.5는 실용적 관점에서의 높은 신뢰도를 보여주었습니다. 다만, 초장기 영상이나 극단적으로 복잡한 멀티모달 입력에서는 여전히 일부 한계가 확인되었습니다.
이러한 실험 결과들은 Eagle 2.5가 긴 문맥 멀티모달 이해라는 주요 과제를 효과적으로 해결할 수 있음을 보여줍니다. 특히 입력 길이 증가에 따른 성능 향상은 향후 다양한 멀티미디어 응용 분야에 중요한 시사점을 제공합니다.
Eagle 2.5는 Video-MME와 MME라는 첨단 벤치마크에서 각각 72.4%, 92.7%이라는 점수를 기록했습니다. 이는 GPT-4o, Qwen2.5-VL-72B, InternVL2.5-78B 등 대형 모델과 대등한 성능입니다.
실제로 영상 전체 요약, 장면별 질의응답, 고해상도 이미지 분석 등 실제 사용 시나리오에서도 꽤 자연스러운 반응을 보입니다.
물론 아직 "초장기 영상"과 "극단적 멀티모달 혼합" 영역에서는 약간의 미흡함이 존재하긴 하지만, 현재 수준만으로도 다양한 서비스에 활용 가능성이 큽니다.
Eagle 2.5는 단지 새로운 모델이 아니라, "긴 문맥 멀티모달 AI의 실용화"라는 흥미로운 방향성을 제시합니다.
앞으로는 더 많은 멀티모달 이해의 고도화, 예를 들면 장편 영상 자동 요약, 복잡한 이미지-텍스트 혼합 질의응답까지 인식하게 될 가능성이 큽니다.
이러한 미래가 Eagle 2.5로 인해 조금 더 가까워졌습니다.
Eagle 2.5에 입문하려면, 기본적인 멀티모달 딥러닝과 비전-언어 모델 구조에 대한 이해가 필요합니다.
다행히도 공식 프로젝트 페이지에 예제 코드와 데모가 잘 정리되어 있어, 실습을 통해 구조와 사용법을 익힐 수 있습니다.
실무에 적용하고 싶다면?
충분한 멀티모달 데이터셋을 확보하고, 다양한 테스트 시나리오를 실험하면서 모델을 파인튜닝 및 커스텀 QA 태스크에 적용하는 것이 핵심입니다. 또한, 메모리/연산 최적화와 데이터 전처리 자동화도 병행되어야 합니다.
Eagle 2.5는 단순한 기술적 진보를 넘어, AI가 긴 문맥의 멀티모달 데이터를 실질적으로 이해하는 패러다임 전환을 향한 중요한 이정표입니다. 이 기술이 제시하는 가능성은 미디어, 검색, 추천, 영상 분석 등 산업 전반의 미래를 재정의할 잠재력을 가지고 있습니다.
우리는 지금 멀티모달 AI의 본격적 실용화라는 기술 발전의 중요한 변곡점에 서 있으며, Eagle 2.5는 그 여정의 핵심 동력이 될 것입니다. 당신이 이 혁신적인 기술을 활용하여 미래를 선도하는 개발자가 되어보는 건 어떨까요?
Ultra-diffuse galaxies in the EAGLE simulation
- 논문 설명: 우리는 초고해상도 EAGLE 시뮬레이션인 Recal-L025N0752를 사용하여 초희박 은하(UDGs)의 특성과 형성을 연구합니다.
- 저자: Haonan Zheng, Shihong Liao, Liang Gao, Fangzhou Jiang
- 발행일: 2025-04-21
- PDF: 링크
Transferring linearly fixed QAOA angles: performance and real device results
- 논문 설명: 양자 근사 최적화 알고리즘(Quantum Approximate Optimization Algorithm, QAOA)은 양자 회로의 변분 매개변수를 최적화함으로써 양자 컴퓨터에서 조합 최적화 문제를 해결할 수 있게 해줍니다.
- 저자: Ryo Sakai, Hiromichi Matsuyama, Wai-Hong Tam, Yu Yamashiro
- 발행일: 2025-04-17
- PDF: 링크
Dark matter decay signals in cosmic filaments
- 논문 설명: 우주 필라멘트는 우주 웹의 중추를 형성하지만, 그 특성과 진화는 여전히 불확실하다.
- 저자: Elena Pinetti, Evan Vienneau, Nassim Bozorgnia
- 발행일: 2025-04-10
- PDF: 링크
댓글