본문 바로가기
IT

MS, 3나노 AI 칩 ‘Maia 200’ 공개… 엔비디아 의존도 낮춘다

by 카메라의눈 2026. 1. 27.
반응형
비용 효율 30% 개선·TSMC 최신 공정 적용
자체 데이터센터 최적화로 클라우드 주도권 강화

Maia 200
이미지출처:마이크로소프트(MS)

 

마이크로소프트(MS)가 27일 자체 개발한 2세대 인공지능(AI) 칩 ‘Maia 200’을 공식 발표했다. 엔비디아의 그래픽처리장치(GPU) 공급 부족과 높은 비용 문제를 해결하고, 애저(Azure) 클라우드의 경쟁력을 강화하려는 포석이다.

 

MS는 이날 행사에서 Maia 200이 전작인 Maia 100 대비 연산 처리 속도는 1.5배, 전력 효율은 30% 향상됐다고 밝혔다. 이번 칩은 대만 TSMC의 3나노 공정으로 제조됐으며, 거대언어모델(LLM) 학습과 추론에 최적화된 아키텍처를 갖췄다.

 

사티아 나델라 MS 최고경영자(CEO)는 “AI 인프라의 최적화는 이제 선택이 아닌 필수”라며 “Maia 200은 애저 데이터센터의 핵심 엔진이 되어 오픈AI의 모델을 포함한 다양한 AI 워크로드를 가장 효율적으로 처리할 것”이라고 강조했다.

 

업계 전문가들은 MS의 행보가 클라우드 시장의 가격 경쟁을 촉발할 것으로 보고 있다. 댄 아이브스 웨드부시 증권 애널리스트는 “MS가 자체 칩 비중을 높이면 엔비디아에 지불하던 천문학적인 비용을 절감할 수 있다”며 “이는 장기적으로 기업 고객에게 더 저렴한 AI 서비스를 제공하는 기반이 될 것”이라고 분석했다.

 

구글(TPU), 아마존(Trainium)에 이어 MS까지 자체 칩 성능을 비약적으로 높이면서, 빅테크 기업들의 ‘탈(脫) 엔비디아’ 움직임은 더욱 가속화될 전망이다.

반응형

MS는 내달부터 북미 지역 데이터센터를 시작으로 Maia 200 서버를 순차적으로 도입한다. 이를 통해 챗GPT(ChatGPT)와 코파일럿(Copilot) 서비스의 응답 속도가 개선되고, 운영 비용은 낮아질 것으로 예상된다. 기업 고객들은 올 하반기부터 애저를 통해 Maia 200 인스턴스를 선택해 사용할 수 있게 된다.

 

일반 사용자 입장에서는 MS의 AI 서비스 구독료 인상 억제 효과를 기대할 수 있다. 또한 기업들이 낮아진 클라우드 비용을 바탕으로 다양한 AI 애플리케이션을 개발·배포하기 쉬워져, AI 서비스의 대중화 속도가 빨라질 것으로 보인다.

 

반응형