본문 바로가기
IT

텐센트, 소비자용 GPU서 돌아가는 ‘훈위안비디오 1.5’ 오픈소스 공개

by 카메라의눈 2025. 11. 26.
반응형
83억 파라미터 경량화 모델… “고품질 비디오 생성 장벽 낮춘다”
24GB VRAM 지원·추론 속도 2배 향상… 허깅페이스 통해 즉시 사용 가능

훈위안비디오 1.5(HunyuanVideo-1.5)
출처:훈위안비디오

 

중국 빅테크 기업 텐센트(Tencent)가 일반 소비자용 그래픽카드(GPU)에서도 구동 가능한 고성능 비디오 생성 AI ‘훈위안비디오 1.5(HunyuanVideo-1.5)’를 오픈소스로 공개했다. 기존 대형 모델 대비 파라미터(매개변수) 수를 줄이면서도 생성 품질은 유지해, 고사양 하드웨어 없이도 개인 창작자가 AI 영상을 제작할 수 있는 길이 열렸다.

반응형

텐센트 훈위안 팀은 지난 20일(현지시간) 허깅페이스(Hugging Face)를 통해 훈위안비디오 1.5의 모델 가중치와 추론 코드를 전면 개방했다고 밝혔다. 이번 모델은 약 83억(8.3B) 파라미터 규모로, 앞서 공개된 130억 파라미터 모델 대비 몸집을 대폭 줄인 것이 특징이다.

 

훈위안비디오 1.5의 핵심 경쟁력은 ‘효율성’이다. 텐센트 측은 독자 개발한 ‘선택적 슬라이딩 타일 어텐션(SSTA)’ 아키텍처를 적용해 불필요한 연산을 줄이고 처리 속도를 높였다고 설명했다. 이를 통해 24GB VRAM을 갖춘 소비자용 GPU(예: 지포스 RTX 3090/4090 급)에서도 원활한 구동이 가능해졌다. 최근 업데이트된 캐시 추론 기능을 활용할 경우 속도는 기존 대비 약 2배 더 빨라진다.

 

기능 면에서는 텍스트를 영상으로 만드는 ‘T2V(Text-to-Video)’와 이미지를 영상으로 변환하는 ‘I2V(Image-to-Video)’를 모두 지원한다. 기본 720p 해상도 영상을 생성하며, 자체 업스케일링 기술을 통해 1080p 고화질 변환도 가능하다. 특히 인물의 표정과 움직임을 정교하게 제어할 수 있는 ‘훈위안비디오-아바타(HunyuanVideo-Avatar)’ 기능이 포함되어 있어 버추얼 휴먼 제작 등 다양한 2차 창작에 활용될 전망이다.

 

오픈소스 커뮤니티의 반응은 뜨겁다. 공개 직후 레딧(Reddit) 등 주요 AI 커뮤니티에서는 “소라(Sora)나 런웨이(Runway) 같은 유료 폐쇄형 모델의 강력한 대안”, “개인 PC에서 돌아가는 고품질 모델의 등장”이라는 평가가 이어졌다. 텐센트는 이번 공개와 함께 컴피UI(ComfyUI) 등 대중적인 인터페이스 지원도 강화해 일반 사용자의 접근성을 높인다는 전략이다.

 

업계 관계자는 “대형 기술 기업들이 모델 경량화 경쟁에 뛰어들면서 AI 비디오 생성 기술의 민주화가 가속화되고 있다”며 “훈위안비디오 1.5는 하드웨어 제약으로 접근이 어려웠던 개인 개발자와 크리에이터들에게 중요한 전환점이 될 것”이라고 분석했다.

텐센트 훈위안비디오 1.5에 대한 자세한 정보와 다운로드는 허깅페이스 공식 리포지토리(https://huggingface.co/tencent/HunyuanVideo-1.5에서 확인할 수 있다.

 

tencent/HunyuanVideo-1.5 · Hugging Face

Smooth Motion Generation 📋 Show input prompt A DJ is immersed in his musical world. He wears a pair of professional, matte-black headphones, revealing a focused expression. He wears a black bomber jacket, zipped open to reveal a T-shirt underneath. His

huggingface.co

반응형