スペインのバレンシア工科大学の人工知能(AI)研究チームは、大規模言語モデルがより大きく洗練されるにつれて、ユーザーに対して答えが分からないことを認める可能性が低くなる傾向があることを発見した。 [広告_1]
AI が賢くなればなるほど、答えが分からないことをユーザーに対して認める可能性が低くなります。 (イラスト画像AI) |
ネイチャー誌に掲載された研究で、研究チームは最も人気のあるAIチャットボット3つの最新バージョンの応答性、正確性、ユーザーが誤った回答を見つける能力をテストした。
最も人気のある 3 つの LLM、BLOOM、LLaMA、GPT の精度をテストするために、チームは何千もの質問を提示し、受け取った回答を同じ質問に対する以前のバージョンの回答と比較しました。また、数学、科学、言葉のパズル、地理など、科目もさまざまで、テキストを作成したり、リストを並べ替えるなどのアクションを実行したりする機能もあります。
調査結果ではいくつかの注目すべき傾向が明らかになった。チャットボットの全体的な精度は新しいバージョンが出るたびに向上しますが、難しい質問に直面すると精度は低下します。驚くべきことに、LLM の規模が大きくなり、より高度になるにつれて、正解する能力についてオープンに語らなくなる傾向があります。
以前のバージョンでは、ほとんどの LLM は、ユーザーが回答を見つけられなかったり、さらに情報が必要になったりしたときに、率直にその旨を伝えていました。対照的に、新しいバージョンでは推測することが多くなり、正解と不正解の両方を含む全体的な回答が多くなります。さらに心配なことに、この調査では、すべての LLM が簡単な質問に対しても時折誤った回答をしていることが判明し、その信頼性は改善が必要な問題のままであることを示唆しています。
これらの調査結果は、AI の進化におけるパラドックスを浮き彫りにしています。つまり、モデルがより強力になる一方で、その限界についての透明性も低下する可能性があるということです。
これにより、AI システムの使用と信頼に新たな課題が生じ、ユーザーはより慎重になり、開発者はモデルの精度だけでなく「自己認識」の向上にも注力する必要があります。
[広告2]
出典: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html
コメント (0)