DeepSeek이 1조 파라미터 Mixture-of-Experts 모델 V4를 Apache 2.0 라이선스로 오픈소스 공개했다. 미국 프론티어 모델과 경쟁하는 성능이면서 훈련비는 추정 520만 달러에 불과하다.
DeepSeek의 ‘저비용 고효율’ 접근법이 다시 한번 입증됐다. V3로 업계에 충격을 준 데 이어, V4로 성능까지 끌어올렸다. Apache 2.0이라 누구나 상업적으로 활용할 수 있다.
200억 달러 밸류 투자 협상과 V4 오픈소스 공개가 동시에 진행되고 있다. 돈을 받으면서 기술은 공개하는 DeepSeek의 전략이 AI 업계의 상식을 뒤흔들고 있다.