인공지능(AI) 분야의 거장들은 중국 스타트업 DeepSeek의 성과를 인정했지만, 이 회사의 성공을 과장해서는 안 된다고 말한다.
OpenAI의 CEO인 샘 알트만부터 Google의 과학자 앤드류 응까지, 세계에서 가장 뛰어난 AI 전문가들은 중국 스타트업 DeepSeek이 두 가지 최첨단 AI 모델을 출시한 이후, DeepSeek의 오픈 소스 접근 방식을 높이 평가했습니다.
항저우에 본사를 둔 이 회사는 오픈소스 추론 모델 R1로 글로벌 AI 산업에 충격을 주었습니다.
1월 20일에 출시된 이 모델은 ChatGPT를 개발한 OpenAI의 폐쇄형 소스 모델과 비슷한 성능을 보였지만, 학습 비용은 훨씬 낮다고 합니다.
DeepSeek에 따르면, 기초적인 대규모 언어 모델인 DeepSeek V3가 몇 주 전에 출시되었으며, 훈련 비용은 불과 550만 달러였습니다.
이 회사의 발표로 인해 기술 기업들이 AI 훈련을 위한 그래픽 칩(GPU)에 과도한 지출을 하고 있다는 의문이 제기되었고, 이로 인해 관련 기술 주식 매도가 이루어졌습니다.
지난주 Reddit의 "Ask Me Anything"에서 Altman은 OpenAI가 틀렸고 오픈 소스에 대한 다른 접근 방식을 찾아야 한다고 주장했습니다.
이 회사는 항상 폐쇄적인 접근 방식을 취해 모델의 구체적인 훈련 방법이나 에너지 비용 등의 세부 사항을 비밀로 유지해 왔습니다.
"그렇기는 하지만 OpenAI의 모든 사람이 이러한 견해를 공유하는 것은 아닙니다." 그리고 "지금 당장은 이것이 우리의 최우선 순위가 아닙니다." 라고 OpenAI CEO가 인정했습니다.
구글 브레인 설립자이자 바이두 전 수석 과학자인 앤드류 응은 DeepSeek과 동종 기업의 제품을 보면 중국이 AI 분야에서 미국을 빠르게 따라잡고 있다는 것을 알 수 있다고 말했습니다.
“2022년 11월 ChatGPT가 출시되었을 때 미국은 생성 AI에서 중국보다 상당히 앞서 있었지만 사실 그 격차는 지난 2년 동안 빠르게 줄어들었습니다.”라고 그는 X에 썼습니다 . “Qwen과 같은 중국 모델을 사용하면 Kimi, InternVL과 DeepSeek, 중국은 분명히 격차를 줄이고 있으며 비디오 제작과 같은 분야에서는 중국이 앞서 나가는 것처럼 보일 때가 있었습니다."
Qwen 모델은 알리바바가 개발한 것이고, Kimi와 InternVL은 스타트업 Moonshot AI와 상하이 AI 랩이 개발한 제품입니다.
응 씨에 따르면 미국이 오픈소스를 계속 차단한다면 중국이 공급망의 이 부분을 지배하게 되고 많은 기업이 결국 미국식 가치보다는 중국식 가치를 더 반영하는 모델을 채택하게 될 것이라고 한다.
여러 미국 회사가 DeepSeek의 모델을 자사 제품에 적용하고자 하고 있습니다. 예를 들어, Nvidia의 NIM 서비스 사용자는 지난주부터 R1 모델에 액세스할 수 있었으며 Microsoft도 Azure 클라우드 플랫폼과 GitHub에서 R1을 지원합니다. Amazon은 고객이 AWS를 통해 R1을 사용하여 애플리케이션을 만들 수 있도록 허용합니다.
하지만 일부 전문가들은 DeepSeek의 성공을 과장해서는 안 된다고 말한다. Meta의 수석 AI 과학자인 얀 르쿤은 DeepSeek 덕분에 "중국이 AI 분야에서 미국을 앞지를 것"이라는 생각은 틀렸다고 말했습니다.
그는 Threads에 "오픈소스 모델이 독점 모델을 능가하고 있다"고 적었습니다.
DeepSeek는 2023년 5월 창립자 량원펑의 헤지펀드 High-Flyer에서 분사된 스타트업으로, 실제 비용과 AI 모델 학습 방법에 대해 여전히 회의적인 시각을 가지고 있습니다.
스타트업의 기술 보고서에 따르면, 복단대학 컴퓨터 과학 교수인 정샤오칭은 DeepSeek V3의 훈련 비용에 테스트 및 연구 관련 비용이 포함되지 않았다고 지적했습니다.
DeepSeek의 성공은 "기술적 최적화"에서 비롯된 것이라고 그는 말하며, 칩 조달이나 출하에 큰 영향을 미치지 않는다고 덧붙였다.
(SCMP에 따르면)
[광고2]
출처: https://vietnamnet.vn/nhung-ten-tuoi-ai-hang-dau-the-gioi-tranh-luan-ve-deepseek-2368357.html
Comment (0)