Le 12 septembre, OpenAI a lancé une série de nouveaux modèles d’intelligence artificielle (IA) capables de passer plus de temps à réfléchir pour fournir des réponses plus précises et plus bénéfiques aux utilisateurs.
Les nouveaux modèles, connus sous le nom d'OpenAI o1-Preview, sont conçus pour s'attaquer à des tâches complexes et à des problèmes plus difficiles dans les domaines des sciences, du codage et des mathématiques, des domaines dans lesquels les modèles précédents ont souvent été critiqués pour ne pas fournir de réponses cohérentes.
OpenAI o1-Preview a été formé pour affiner son processus de réflexion, tester différentes approches et détecter les erreurs avant de proposer une réponse finale.
Sam Altman, PDG d’OpenAI, a qualifié les nouveaux modèles de « capables de raisonnement complexe », même s’ils peuvent encore présenter des défauts et des limites.
En conséquence, OpenAI travaille toujours à améliorer les capacités des modèles d’IA pour surmonter le problème de « l’illusion » – un phénomène lorsque les chatbots créent un contenu convaincant mais inexact.
Jerry Tworek, chercheur chez OpenAI, a déclaré que le nouveau modèle serait moins sujet au problème de « l’illusion », mais qu’il ne résout toujours pas complètement le problème.
Les modèles OpenAI o1-Preview sont connus pour avoir résolu avec succès des tâches difficiles en physique, chimie et biologie au niveau des doctorats.
En particulier, dans le domaine des mathématiques et du codage, cet OpenAI o1-Preview a atteint un taux de précision allant jusqu'à 83 % lors de la résolution de problèmes lors de l'examen d'entrée à l'Olympiade internationale de mathématiques. Ce chiffre est bien supérieur au taux de 13 % du modèle GPT-4o précédent.
Selon OpenAI, les nouvelles capacités de raisonnement pourraient aider les chercheurs en santé à annoter les données de séquençage cellulaire. En même temps, cet outil peut aider les physiciens à développer des formules complexes.
OpenAI a également déclaré que les nouveaux modèles d'IA ont réussi des tests de jailbreak rigoureux et résistent aux tentatives de contournement des barrières de sécurité.
En outre, les mesures de sécurité ont également été renforcées, notamment grâce à des accords récents avec l'AI Safety Institute des États-Unis et du Royaume-Uni. C'est ici que l'accès anticipé à ces modèles est donné à des fins de test et d'évaluation.
Source : https://laodong.vn/cong-nghe/openai-ra-mat-sieu-ai-moi-voi-kha-nang-lap-luan-1393825.ldo
Comment (0)