반응형 머신러닝3 MIT 연구진, AI 학습 '데이터의 벽' 극복할 새 프레임워크 개발 LLM 스스로 합성 데이터 생성…외부 데이터 의존도 낮춰모델 성능 향상 및 '모델 붕괴' 현상 해결 가능성 제시 인공지능(AI)의 성능 향상을 가로막는 주요 장애물 중 하나인 '데이터의 벽(data wall)'을 극복할 수 있는 새로운 길이 열릴 전망이다. 미국 매사추세츠공과대학(MIT) 연구진이 대규모 언어 모델(LLM)이 외부 입력 없이 스스로 학습 데이터를 생성하고 개선할 수 있는 새로운 프레임워크 'SEAL(Self-Editing with Reinforcement Learning)'을 개발했다고 발표했다. '데이터의 벽'은 AI 모델이 훈련에 사용할 수 있는 고품질의 인간이 작성한 데이터가 고갈되어 더 이상 성능이 향상되지 않는 현상을 의미한다. 지금까지 AI 모델은 방대한 양의 웹 데이터를 학습.. 2025. 6. 30. 구글, AI 모델 성능 비교 위한 오픈소스 'LMEval' 프레임워크 공개 GPT-4o부터 Claude까지, 통합 벤치마킹으로 AI 모델 객관적 평가 가능멀티모달 지원과 안전성 분석 기능으로 차세대 AI 개발 가속화 구글이 대형 언어 모델과 멀티모달 AI 모델의 성능을 표준화된 방식으로 비교 평가할 수 있는 오픈소스 프레임워크 'LMEval'을 공개했다고 26일 발표했다. 이 도구를 통해 연구자와 개발자들은 GPT-4o, Claude 3.7 Sonnet, Gemini 2.0 Flash, Llama-3.1-405B 등 서로 다른 회사의 AI 모델들을 동일한 기준으로 체계적으로 평가할 수 있게 됐다.AI 모델 비교의 새로운 표준 제시그동안 AI 업계에서는 각 기업이 자체적인 API와 데이터 형식, 벤치마크 설정을 사용해 모델 간 객관적 비교가 어려웠다. 구글은 "LMEval이 이러.. 2025. 5. 27. "70% 크기, 100% 정확도: LLM 압축 기술의 혁신적 발전" "Dynamic-Length Float (DFloat11) 기술로 LLM 크기 30% 감소""GPU 추론 효율성 향상, 메모리 사용량 최적화" 최근 AI 기술의 발전으로 Large Language Models (LLMs)의 크기가 급격히 증가하면서, 제한된 하드웨어 자원에서의 효율적인 배포가 중요한 과제로 떠오르고 있습니다. 이에 Tianyi Zhang과 그의 동료들이 개발한 Dynamic-Length Float (DFloat11) 기술이 주목받고 있습니다. DFloat11은 LLM의 크기를 30%까지 줄이면서도 원본 모델과 동일한 출력을 제공하는 무손실 압축 프레임워크입니다. 이 기술은 BFloat16 가중치 표현의 낮은 엔트로피를 활용하여, 빈도에 기반한 동적 길이 인코딩을 적용함으로써 정보 최적화에.. 2025. 4. 27. 이전 1 다음 반응형