본문 바로가기
IT

AI2, 소형 AI 모델 ‘Olmo 2 1B’로 구글·메타·알리바바 능가

by 카메라의눈 2025. 5. 2.
반응형
1B 파라미터 모델, GSM8K·TruthfulQA 등 주요 벤치마크서 경쟁사 앞서
공개 데이터·코드로 누구나 재현 가능…개발자 접근성 대폭 향상

AI2
Image Credits: piranka / Getty Images

 

비영리 인공지능 연구기관 AI2가 2025년 5월 1일, 10억(1B) 파라미터 규모의 소형 AI 모델 ‘Olmo 2 1B’를 공개했다. 이 모델은 구글, 메타, 알리바바 등 글로벌 빅테크의 동급 모델을 여러 벤치마크에서 앞서는 성능을 보이며, 오픈소스 AI 생태계에 새로운 바람을 불러일으키고 있다.

 

Ai2

Ai2 has 498 repositories available. Follow their code on GitHub.

github.com

 

반응형

AI2의 Olmo 2 1B는 4조 토큰의 고품질 데이터로 학습됐으며, Apache 2.0 라이선스로 공개되어 누구나 자유롭게 활용할 수 있다. 특히 코드와 데이터셋까지 모두 공개되어, 개발자와 연구자들이 동일한 모델을 직접 재현할 수 있다는 점이 큰 특징이다.

 

Olmo 2 1B는 소형 모델임에도 불구하고, 산술 추론(GSM8K)과 사실성 평가(TruthfulQA) 등 주요 벤치마크에서 구글의 Gemma 3 1B, 메타의 Llama 3.2 1B, 알리바바의 Qwen 2.5 1.5B를 모두 앞섰다. AI2는 “Olmo 2 1B는 구글, 메타, 알리바바의 동급 모델을 능가한다”고 밝혔다. TechCrunch는 “누구나 노트북이나 모바일에서 실행 가능하다”고 전했다.

 

아래 표는 주요 소형 AI 모델의 벤치마크 결과를 요약한 것이다.

모델명 파라미터 GSM8K(산술) TruthfulQA(정확성) 라이선스
Olmo 2 1B 1B 최고 최고 Apache 2.0
Google Gemma 3 1B 1B 중간 중간 -
Meta Llama 3.2 1B 1B 중간 중간 -
Alibaba Qwen 2.5 1.5B 중간 중간 -

Olmo 2 1B는 공개된 코드와 데이터셋(Olmo-mix-1124, Dolmino-mix-1124)으로 누구나 재현할 수 있으며, Hugging Face 플랫폼을 통해 쉽게 접근할 수 있다. AI2는 “모든 학습 중간 체크포인트도 함께 제공한다”고 밝혔다.

 

 

 

 

 

 

다만, AI2는 Olmo 2 1B 역시 다른 AI 모델과 마찬가지로 “문제적이거나 민감한 내용, 사실과 다른 정보를 생성할 수 있다”며 상업적 배포에는 신중을 기할 것을 권고했다.

 

이번 Olmo 2 1B의 등장은 소형 AI 모델의 실용성과 접근성을 크게 높였다는 평가를 받고 있다. 고성능 하드웨어가 없어도 노트북이나 모바일 기기에서 실행 가능해, 개발자와 연구자, 일반 사용자 모두에게 새로운 가능성을 제시한다. 오픈소스 AI 경쟁이 치열해지는 가운데, AI2의 행보가 업계에 어떤 변화를 가져올지 주목된다.


참고링크

  1. TechCrunch 기사 원문
  2. Hugging Face Olmo 2 1B
  3. AI2 공식 트위터
반응형