GPT-4o Mini, Gemini 2.5 Pro 등 압도…ARC-AGI 벤치마크서 45% 달성
삼성전자 종합기술원 AI 랩(SAIL Montreal) 연구팀이 단 700만 개의 매개변수(파라미터)만을 가진 초소형 AI 모델 'TRM(Tiny Recursive Model)'을 개발하고, 복잡한 추론 능력 벤치마크인 ARC-AGI 테스트에서 대규모 언어 모델(LLM)들을 능가하는 성능을 보이며 AI 아키텍처 혁신을 입증했다.
TRM은 삼성 SAIT 소속 Alexia Jolicoeur-Martineau 연구원이 발표한 논문 "Less is More: Recursive Reasoning with Tiny Networks"를 통해 공개되었다. 이 모델은 GPT-4o mini, Gemini 2.5 Pro와 같은 수십억~수천억 개의 매개변수를 가진 거대 모델보다 적은 0.01% 미만의 매개변수만을 사용하고도 높은 추론 정확도를 달성했다.
반복적 추론 구조가 핵심…비용 효율성 극대화
TRM은 '재귀적 추론(Recursive Reasoning)' 방식, 즉 '반복적인 교정 루프(tight, repeating correction loop)'를 통해 정답을 도출하는 독특한 아키텍처를 사용한다. 모델은 현재 해답과 중간 단계를 위한 스크래치 패드(scratchpad) 메모리를 유지하며, 이 루프를 여러 번 실행하여 초기 오류를 점진적으로 개선한다.
이러한 혁신 덕분에 TRM은 ARC-AGI-1 벤치마크에서 45%의 정확도를 기록하며, 기존 LLM인 ▲GPT-4o mini(o3-mini-high)의 34.5% ▲Gemini 2.5 Pro의 37.0% ▲DeepSeek R1의 15.8% 등을 앞섰다. 또한 난이도가 높은 ARC-AGI-2 테스트에서도 8%를 달성해 Gemini 2.5 Pro(4.9%)보다 우수했다.
삼성 연구진은 이 모델을 NVIDIA H-100 GPU 4대와 500달러 미만의 비용으로 단 이틀 만에 훈련시켰다고 밝혀, 거대 모델 훈련에 수백만 달러가 드는 것과 비교하면 압도적인 비용 및 컴퓨팅 효율성을 입증했다.
TRM의 등장은 AI 발전이 단순히 모델 크기를 키우는 '규모 확장(Scaling Law)'을 넘어, 특정 영역에 특화된 아키텍처 혁신을 통해 더 큰 효율과 성능 향상을 이룰 수 있음을 보여주는 사례로 평가된다.
출처: Samsung SAIT (2025년 10월 6일), The Decoder (2025년 10월 9일)
'IT' 카테고리의 다른 글
OpenAI, '최고급 추론 모델' GPT-5 Pro 출시... 응답 토큰 27만 개로 확장 (0) | 2025.10.11 |
---|---|
앤트로픽 ‘클로드 소넷 4.5’, 보안 취약점 탐지 25%↑ (0) | 2025.10.06 |
알리바바, Qwen3 컴팩트 멀티모달 모델 공개…GPT-4o 등과 경쟁 (0) | 2025.10.05 |
OpenAI, 삼성·SK와 ‘스타게이트’ 동맹…5천억 달러 AI 인프라 구축 가속 (0) | 2025.10.05 |
구글, 제미나이 2.5 플래시 이미지 일반 공개...10가지 화면 비율 지원 확대 (0) | 2025.10.05 |