반응형 moe아키텍처2 중국 MiniMax, M2.5 / M2.5 Lightning 공개 오픈소스 MoE 아키텍처로 가격 파괴… 연 1만 달러에 다수 에이전트 운영 가능 중국 AI 스타트업 MiniMax가 2월 12일 M2.5 시리즈를 공개하며 글로벌 LLM 시장의 가격 전쟁을 본격화했습니다. 최고 성능 모델 M2.5는 Claude Opus 4.6과 GPQA·LiveCodeBench·AgentBench 등 주요 벤치마크에서 92~96% 수준의 성능을 기록하면서도 추론 비용은 1/20 수준에 불과하다고 주장했습니다.기술적 핵심은 최적화된 Mixture of Experts(MoE) 아키텍처입니다. 총 1.8조 파라미터 중 활성화되는 파라미터를 220억 개로 제한해 연산 효율을 극대화했으며, 128K 컨텍스트를 지원하면서도 메모리 사용량을 Claude의 1/7로 줄였습니다. 특히 ‘M2.5 Lig.. 2026. 2. 18. 알리바바, GPT-4 능가하는 AI 모델 '큐원 2.5-맥스' 공개... 중국 AI 굴기 가속화 20조 개 토큰으로 학습한 '큐원 2.5-맥스', GPT-4와 딥시크-V3 성능 뛰어넘어MoE 아키텍처 도입으로 효율성 극대화... 글로벌 AI 시장 판도 변화 예고 중국 IT 공룡 알리바바가 새로운 인공지능(AI) 모델 '큐원(Qwen) 2.5-맥스'를 공개하며 글로벌 AI 시장에 지각변동을 예고했다. 알리바바는 이 모델이 오픈AI의 GPT-4와 중국 스타트업 딥시크의 최신 모델을 능가하는 성능을 보인다고 주장해 주목받고 있다. 알리바바 클라우드는 중국 춘제(春節·설날) 당일인 2025년 1월 29일, 소셜미디어 공식 계정을 통해 '큐원 2.5-맥스' 출시 소식을 발표했다. 이 모델은 20조 개 이상의 토큰으로 사전 훈련을 받았으며, 오픈AI의 GPT-4o, 딥시크-V3, 메타의 라마(LLaMA)-3... 2025. 2. 5. 이전 1 다음 반응형