대만 기업 Foxconn은 오늘(3월 10일) 최초의 대규모 언어 모델을 개발했으며, 이 기술을 사용하여 제조 및 공급망 관리를 개선할 계획이라고 발표했습니다.
"FoxBrain"이라는 이름의 이 모델은 Nvidia의 H100 GPU 120개를 사용하여 훈련되었으며 약 4주 만에 완성되었다고 세계 최대의 계약 칩 제조업체가 밝혔습니다.
폭스콘이 세계 최고 표준에 매우 가까운 최초의 주요 언어 모델을 출시했습니다.
애플용 아이폰을 조립하고 엔비디아의 인공지능 서버도 만드는 이 회사는 해당 모델이 Meta의 Llama 3.1 아키텍처를 기반으로 한다고 밝혔습니다.
이는 번체 중국어와 대만어 스타일로 최적화된 추론 기능을 갖춘 대만 최초의 대규모 언어 모델입니다.
Foxconn은 중국에서 생산된 DeepSeek의 추출 모델과 비교했을 때 약간의 성능 격차가 있지만 FoxBrain의 전반적인 성능은 세계 최고 수준에 매우 가깝다고 밝혔습니다.
원래 내부 애플리케이션용으로 설계된 FoxBrain에는 데이터 분석, 의사 결정 지원, 문서 협업, 수학, 추론 및 문제 해결, 프로그래밍 코드 생성 기능이 포함되어 있습니다.
Foxconn은 기술 파트너와 협력하여 이 모델의 적용 범위를 확대하고, 오픈 소스 정보를 공유하고, 제조, 공급망 관리, 스마트 의사 결정에 인공 지능을 활용할 계획입니다.
Foxconn에 따르면, Nvidia는 대만에 위치한 "Taipei-1" 슈퍼컴퓨터를 통해 지원을 제공하고 모델 훈련 중에 기술적 조언을 제공했습니다.
대만 최대의 슈퍼컴퓨터인 타이베이-1은 대만 남쪽 도시인 가오슝에서 엔비디아가 소유하고 운영하고 있습니다.
Foxconn은 3월 중순에 열리는 Nvidia의 GTC 개발자 컨퍼런스에서 이 모델에 대한 자세한 내용을 발표할 것으로 예상됩니다.
(출처: 로이터)
[광고2]
출처: https://www.baogiaothong.vn/foxconn-ra-mat-mo-hinh-ngon-ngu-lon-dau-tien-192250310181358802.htm
댓글 (0)