본문 바로가기
반응형

llm25

‘아르씨 AI’ 4000억 파라미터 모델 공개… 오픈소스 진영, 빅테크 독점 흔든다 메타 ‘라마’ 대항마 ‘트리니티’ 무료 배포고성능·저비용 전략으로 기업 B2B 시장 공략 신생 AI 스타트업 ‘아르씨 AI(Arcee AI)’가 빅테크 기업의 전유물이었던 초거대 언어모델(LLM) 시장에 도전장을 던졌다. 4000억 개(400B)의 매개변수를 가진 오픈소스 모델을 무료로 공개하며 기술 민주화에 불을 지폈다.아르씨 AI는 28일(현지시간) 자사 홈페이지를 통해 고성능 LLM ‘트리니티(Trinity)’를 개발자 및 학계에 공개한다고 발표했다. 트리니티는 메타의 ‘라마(Llama)’ 시리즈와 경쟁할 수 있는 수준의 추론 능력과 언어 이해력을 갖췄으면서도, 누구나 수정하고 배포할 수 있는 아파치 2.0 라이선스를 적용했다. 이번 발표는 막대한 자본력을 앞세운 구글, 오픈AI 등 빅테크 중심의 .. 2026. 1. 30.
엔비디아, 데스크톱 AI 슈퍼컴퓨터 'DGX 스파크' 출시 'GB10 Grace Blackwell 슈퍼칩' 탑재, 1페타플롭 성능 제공128GB 통합 메모리로 2,000억 매개변수 LLM 로컬 실행 가능 엔비디아(NVIDIA)는 대규모 AI 모델을 데스크톱에서 직접 개발, 미세 조정 및 추론할 수 있는 소형 AI 슈퍼컴퓨터 'DGX 스파크(DGX Spark)'를 공식 출시했다고 10월 14일(현지시간) 아르스 테크니카(Ars Technica) 등 외신이 보도했다. 가격은 4,000달러(약 540만 원)이며, 10월 15일부터 주문 가능하다. 이 컴퓨터는 엔비디아의 최신 'GB10 Grace Blackwell 슈퍼칩'을 탑재해 1페타플롭(PetaFLOP)의 AI 성능과 128GB의 통합 메모리를 제공한다. 일반 PC나 워크스테이션의 메모리 한계를 극복하고, 최대 .. 2025. 10. 15.
삼성, 700만 매개변수 '초소형 AI' TRM 개발…거대 모델 능가하는 추론 능력 GPT-4o Mini, Gemini 2.5 Pro 등 압도…ARC-AGI 벤치마크서 45% 달성 삼성전자 종합기술원 AI 랩(SAIL Montreal) 연구팀이 단 700만 개의 매개변수(파라미터)만을 가진 초소형 AI 모델 'TRM(Tiny Recursive Model)'을 개발하고, 복잡한 추론 능력 벤치마크인 ARC-AGI 테스트에서 대규모 언어 모델(LLM)들을 능가하는 성능을 보이며 AI 아키텍처 혁신을 입증했다. TRM은 삼성 SAIT 소속 Alexia Jolicoeur-Martineau 연구원이 발표한 논문 "Less is More: Recursive Reasoning with Tiny Networks"를 통해 공개되었다. 이 모델은 GPT-4o mini, Gemini 2.5 Pro와 같은 .. 2025. 10. 11.
OpenAI, '최고급 추론 모델' GPT-5 Pro 출시... 응답 토큰 27만 개로 확장 높은 정확성 대가로 느린 응답 속도와 비싼 비용 논란 인공지능(AI) 기업 OpenAI가 오늘(6일) DevDay 이벤트에서 플래그십 모델인 'GPT-5 Pro'를 API 전용으로 공식 출시하며 대규모 언어 모델(LLM) 시장에 새로운 표준을 제시했다. GPT-5 Pro는 GPT-5와 동일하게 2024년 9월 30일 지식 차단점과 40만 토큰의 컨텍스트 한도를 공유하지만, 최대 출력 토큰을 기존 128,000개에서 272,000개로 대폭 늘린 것이 특징이다. 이 모델은 OpenAI의 가장 진보된 추론 모델로, 'reasoning.effort: high' 설정을 기본이자 유일한 옵션으로 채택해 복잡한 문제에 대한 최고 수준의 추론 능력을 제공하는 데 집중한다. 느린 응답 속도와 높은 가격, 실사용 효율성 .. 2025. 10. 11.
앤트로픽 ‘클로드 소넷 4.5’, 보안 취약점 탐지 25%↑ 자율 패치 에이전트 구축 가능...취약점 대응 시간 44% 단축SWE-bench 77.2% 달성, 코딩 및 에이전트 분야 최고 성능 입증 AI 전문 기업 앤트로픽(Anthropic)이 신규 대규모 언어 모델(LLM)인 ‘클로드 소넷 4.5’를 공개하며 사이버 보안 분야에서 혁신적인 성과를 발표했다. 이 모델은 특히 보안 취약점 탐지 정확도를 25% 높였으며, 평균 취약점 처리 시간을 44% 단축해 기업의 선제적 방어 체계를 강화할 전망이다. 클로드 소넷 4.5는 향상된 하이브리드 추론(Hybrid Reasoning) 능력을 바탕으로 취약점이 악용되기 전에 자율적으로 패치하는 에이전트 구축을 가능하게 한다. 이는 기존의 사후 대응적 탐지 방식을 넘어 능동적인 보안 강화를 지원하는 중요한 발전으로 평가받는다.. 2025. 10. 6.
알리바바, Qwen3 컴팩트 멀티모달 모델 공개…GPT-4o 등과 경쟁 30억 활성 파라미터로 고성능 발휘, 수학·이미지 인식·에이전트 제어 강화FP8 버전 포함하여 오픈소스로 제공…HuggingFace, GitHub 등에서 이용 가능 중국 기술 대기업 알리바바(Alibaba)의 AI 연구 조직인 Qwen 팀이 'Qwen3-Omni' 계열의 새로운 소규모 멀티모달 모델 두 가지를 오픈소스로 공개했다. 이 모델들은 각각 30억 개의 활성 파라미터(3B active parameters)를 가졌음에도 불구하고, 대규모 모델인 GPT-4o 및 클로드 3 소네트(Claude 3 Sonnet)와 경쟁할 만한 고성능을 발휘한다고 발표했다. 새롭게 공개된 모델은 Qwen3-VL-30B-A3B-Instruct와 Qwen3-VL-30B-A3B-Thinking 버전이다. Qwen3 컴.. 2025. 10. 5.
반응형