대만 기업 Foxconn은 오늘(3월 10일) 최초의 대규모 언어 모델을 개발했으며, 이 기술을 사용하여 제조 및 공급망 관리를 개선할 계획이라고 발표했습니다.
"FoxBrain"이라는 이름의 이 모델은 Nvidia의 H100 GPU 120개를 사용하여 훈련되었으며, 세계 최대 규모의 칩 제조업체가 약 4주 만에 완성했다고 밝혔습니다.
폭스콘이 세계 최고 표준에 매우 가까운 최초의 주요 언어 모델을 출시했습니다.
Apple용 iPhone을 조립하고 Nvidia의 인공지능 서버도 만드는 이 회사는 해당 모델이 Meta의 Llama 3.1 아키텍처를 기반으로 한다고 밝혔습니다.
이는 번체 중국어와 대만어 스타일로 최적화된 추론 기능을 갖춘 대만 최초의 대규모 언어 모델입니다.
Foxconn은 DeepSeek의 중국산 정제된 모델과 비교했을 때 약간의 성능 격차가 있지만 FoxBrain의 전반적인 성능은 세계 최고 수준에 매우 가깝다고 밝혔습니다.
원래 내부 애플리케이션용으로 설계된 FoxBrain에는 데이터 분석, 의사 결정 지원, 문서 협업, 수학, 추론 및 문제 해결, 프로그래밍 코드 생성 기능이 포함되어 있습니다.
Foxconn은 기술 파트너와 협력하여 모델의 적용 범위를 확대하고, 오픈 소스 정보를 공유하고, 제조, 공급망 관리 및 스마트 의사 결정에 인공 지능을 활용할 계획입니다.
Foxconn에 따르면, Nvidia는 대만에 위치한 "Taipei-1" 슈퍼컴퓨터를 통해 지원을 제공했으며, 모델 학습 중에 기술적 조언을 제공했습니다.
대만 최대의 슈퍼컴퓨터인 타이베이-1은 섬 남쪽 도시인 가오슝에서 엔비디아가 소유하고 운영하고 있습니다.
Foxconn은 3월 중순에 열리는 Nvidia의 GTC 개발자 컨퍼런스에서 이 모델에 대한 자세한 내용을 발표할 것으로 예상됩니다.
(출처: 로이터)
[광고_2]
출처: https://www.baogiaothong.vn/foxconn-ra-mat-mo-hinh-ngon-ngu-lon-dau-tien-192250310181358802.htm
댓글 (0)