본문 바로가기
반응형

llm26

구글 Gemma 완벽 가이드: 로컬 환경에서 즐기는 구글의 강력한 오픈 모델 최근 인공지능 기술의 흐름은 거대한 클라우드 서버를 넘어 사용자의 개인 PC, 즉 '로컬 환경'으로 빠르게 확장되고 있습니다. 이러한 변화의 중심에는 구글 딥마인드가 선보인 오픈 모델 'Gemma(젬마)'가 있습니다. 오늘은 개발자와 IT 입문자 모두가 주목해야 할 Gemma의 정체와 이를 로컬 환경에서 효율적으로 구축하는 방법을 심층적으로 분석해 보겠습니다. 1. 구글 Gemma란 무엇인가? 오픈 모델의 새로운 기준Gemma는 구글의 최첨단 AI 모델인 Gemini(제미나이)와 동일한 기술적 뿌리를 공유하는 '경량 오픈 모델'입니다. 구글 딥마인드와 구글 내부의 여러 팀이 협력하여 제작한 이 모델은, 누구나 자유롭게 활용하고 재배포할 수 있는 오픈 소스 성격을 띠고 있어 개발 생태계에 큰 반향을 일으켰.. 2026. 4. 6.
‘아르씨 AI’ 4000억 파라미터 모델 공개… 오픈소스 진영, 빅테크 독점 흔든다 메타 ‘라마’ 대항마 ‘트리니티’ 무료 배포고성능·저비용 전략으로 기업 B2B 시장 공략 신생 AI 스타트업 ‘아르씨 AI(Arcee AI)’가 빅테크 기업의 전유물이었던 초거대 언어모델(LLM) 시장에 도전장을 던졌다. 4000억 개(400B)의 매개변수를 가진 오픈소스 모델을 무료로 공개하며 기술 민주화에 불을 지폈다.아르씨 AI는 28일(현지시간) 자사 홈페이지를 통해 고성능 LLM ‘트리니티(Trinity)’를 개발자 및 학계에 공개한다고 발표했다. 트리니티는 메타의 ‘라마(Llama)’ 시리즈와 경쟁할 수 있는 수준의 추론 능력과 언어 이해력을 갖췄으면서도, 누구나 수정하고 배포할 수 있는 아파치 2.0 라이선스를 적용했다. 이번 발표는 막대한 자본력을 앞세운 구글, 오픈AI 등 빅테크 중심의 .. 2026. 1. 30.
엔비디아, 데스크톱 AI 슈퍼컴퓨터 'DGX 스파크' 출시 'GB10 Grace Blackwell 슈퍼칩' 탑재, 1페타플롭 성능 제공128GB 통합 메모리로 2,000억 매개변수 LLM 로컬 실행 가능 엔비디아(NVIDIA)는 대규모 AI 모델을 데스크톱에서 직접 개발, 미세 조정 및 추론할 수 있는 소형 AI 슈퍼컴퓨터 'DGX 스파크(DGX Spark)'를 공식 출시했다고 10월 14일(현지시간) 아르스 테크니카(Ars Technica) 등 외신이 보도했다. 가격은 4,000달러(약 540만 원)이며, 10월 15일부터 주문 가능하다. 이 컴퓨터는 엔비디아의 최신 'GB10 Grace Blackwell 슈퍼칩'을 탑재해 1페타플롭(PetaFLOP)의 AI 성능과 128GB의 통합 메모리를 제공한다. 일반 PC나 워크스테이션의 메모리 한계를 극복하고, 최대 .. 2025. 10. 15.
삼성, 700만 매개변수 '초소형 AI' TRM 개발…거대 모델 능가하는 추론 능력 GPT-4o Mini, Gemini 2.5 Pro 등 압도…ARC-AGI 벤치마크서 45% 달성 삼성전자 종합기술원 AI 랩(SAIL Montreal) 연구팀이 단 700만 개의 매개변수(파라미터)만을 가진 초소형 AI 모델 'TRM(Tiny Recursive Model)'을 개발하고, 복잡한 추론 능력 벤치마크인 ARC-AGI 테스트에서 대규모 언어 모델(LLM)들을 능가하는 성능을 보이며 AI 아키텍처 혁신을 입증했다. TRM은 삼성 SAIT 소속 Alexia Jolicoeur-Martineau 연구원이 발표한 논문 "Less is More: Recursive Reasoning with Tiny Networks"를 통해 공개되었다. 이 모델은 GPT-4o mini, Gemini 2.5 Pro와 같은 .. 2025. 10. 11.
OpenAI, '최고급 추론 모델' GPT-5 Pro 출시... 응답 토큰 27만 개로 확장 높은 정확성 대가로 느린 응답 속도와 비싼 비용 논란 인공지능(AI) 기업 OpenAI가 오늘(6일) DevDay 이벤트에서 플래그십 모델인 'GPT-5 Pro'를 API 전용으로 공식 출시하며 대규모 언어 모델(LLM) 시장에 새로운 표준을 제시했다. GPT-5 Pro는 GPT-5와 동일하게 2024년 9월 30일 지식 차단점과 40만 토큰의 컨텍스트 한도를 공유하지만, 최대 출력 토큰을 기존 128,000개에서 272,000개로 대폭 늘린 것이 특징이다. 이 모델은 OpenAI의 가장 진보된 추론 모델로, 'reasoning.effort: high' 설정을 기본이자 유일한 옵션으로 채택해 복잡한 문제에 대한 최고 수준의 추론 능력을 제공하는 데 집중한다. 느린 응답 속도와 높은 가격, 실사용 효율성 .. 2025. 10. 11.
앤트로픽 ‘클로드 소넷 4.5’, 보안 취약점 탐지 25%↑ 자율 패치 에이전트 구축 가능...취약점 대응 시간 44% 단축SWE-bench 77.2% 달성, 코딩 및 에이전트 분야 최고 성능 입증 AI 전문 기업 앤트로픽(Anthropic)이 신규 대규모 언어 모델(LLM)인 ‘클로드 소넷 4.5’를 공개하며 사이버 보안 분야에서 혁신적인 성과를 발표했다. 이 모델은 특히 보안 취약점 탐지 정확도를 25% 높였으며, 평균 취약점 처리 시간을 44% 단축해 기업의 선제적 방어 체계를 강화할 전망이다. 클로드 소넷 4.5는 향상된 하이브리드 추론(Hybrid Reasoning) 능력을 바탕으로 취약점이 악용되기 전에 자율적으로 패치하는 에이전트 구축을 가능하게 한다. 이는 기존의 사후 대응적 탐지 방식을 넘어 능동적인 보안 강화를 지원하는 중요한 발전으로 평가받는다.. 2025. 10. 6.
반응형