บริษัท Foxconn ของไต้หวันประกาศเมื่อวันนี้ (10 มีนาคม) ว่าได้พัฒนาโมเดลภาษาขนาดใหญ่รุ่นแรก และมีแผนที่จะใช้เทคโนโลยีดังกล่าวเพื่อปรับปรุงการผลิตและการจัดการห่วงโซ่อุปทาน
โมเดลดังกล่าวซึ่งมีชื่อว่า "FoxBrain" ได้รับการฝึกโดยใช้ GPU H100 จำนวน 120 ตัวของ Nvidia และทำเสร็จภายในเวลาประมาณ 4 สัปดาห์ บริษัทผู้ผลิตชิปตามสัญญาที่ใหญ่ที่สุดในโลกกล่าว
Foxconn เปิดตัวโมเดลภาษาหลักรุ่นแรก ซึ่งใกล้เคียงกับมาตรฐานชั้นนำของโลก
บริษัทที่ประกอบ iPhone ให้กับ Apple รวมถึงผลิตเซิร์ฟเวอร์ปัญญาประดิษฐ์ให้กับ Nvidia กล่าวว่าโมเดลดังกล่าวใช้สถาปัตยกรรม Llama 3.1 ของ Meta
นี่เป็นโมเดลภาษาขนาดใหญ่รุ่นแรกของไต้หวันที่มีความสามารถในการอนุมาน โดยปรับให้เหมาะสมสำหรับรูปแบบภาษาจีนดั้งเดิมและภาษาไต้หวัน
Foxconn กล่าวว่าถึงแม้จะมีช่องว่างด้านประสิทธิภาพเล็กน้อยเมื่อเทียบกับโมเดลที่กลั่นจากจีนของ DeepSeek แต่ประสิทธิภาพโดยรวมของ FoxBrain ใกล้เคียงกับมาตรฐานชั้นนำของโลกมาก
FoxBrain ได้รับการออกแบบมาในตอนแรกสำหรับแอพพลิเคชันภายใน โดยมีฟีเจอร์ต่างๆ เช่น การวิเคราะห์ข้อมูล การสนับสนุนการตัดสินใจ การทำงานร่วมกันบนเอกสาร คณิตศาสตร์ การให้เหตุผลและการแก้ปัญหา และการสร้างโค้ดโปรแกรม
Foxconn วางแผนที่จะทำงานร่วมกับพันธมิตรด้านเทคโนโลยีเพื่อขยายการใช้งานของโมเดล แบ่งปันข้อมูลโอเพนซอร์ส และใช้ประโยชน์จากปัญญาประดิษฐ์ในการผลิต การจัดการห่วงโซ่อุปทาน และการตัดสินใจอย่างชาญฉลาด
ตามรายงานของ Foxconn บริษัท Nvidia ให้การสนับสนุนผ่านซูเปอร์คอมพิวเตอร์ "Taipei-1" ที่ตั้งอยู่ในไต้หวัน และให้คำแนะนำทางเทคนิคในระหว่างการฝึกอบรมแบบจำลอง
ไทเป-1 ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่ใหญ่ที่สุดในไต้หวัน เป็นของและดำเนินการโดย Nvidia ในเมืองเกาสง ซึ่งเป็นเมืองทางตอนใต้ของเกาะ
คาดว่า Foxconn จะประกาศรายละเอียดเพิ่มเติมเกี่ยวกับโมเดลดังกล่าวในงานประชุมนักพัฒนา GTC ของ Nvidia ในช่วงกลางเดือนมีนาคม
(ที่มา รอยเตอร์)
ที่มา: https://www.baogiaothong.vn/foxconn-ra-mat-mo-hinh-ngon-ngu-lon-dau-tien-192250310181358802.htm
การแสดงความคิดเห็น (0)