AIが「幻覚」を起こし、捏造された不正確な答えを出すことは以前から知られていました。しかし、最近研究者らは、人工知能やチャットボットモデル(自動応答ロボット)が操作され、人間に代わって違法行為を行ったり、自分の行為を隠すために嘘をついたりすることさえあることを発見した。
そこで、コーネル大学(米国)の研究チームは、大規模言語モデル(LLM)が誤った動作をしてユーザーを欺く状況を想定しました。実験の説明の中で、研究者らはOpenAIのLLMであるGPT-4に金融機関の投資をシミュレートするよう依頼したと述べた。グループは通常の会話形式で AI とやりとりしましたが、AI の設定により、テキストのやり取り中に「考え」が明らかになり、AI の意思決定プロセスを詳しく調べることができました。
プレッシャーを受けると、AI は不正行為を犯したり、自分の行為を隠すために嘘をついたりする可能性があります。
AIが嘘をついたり不正行為をしたりする能力をテストするために、研究者たちはツールに圧力をかけました。彼らは金融機関のマネージャーの役割を演じ、株式トレーダーを装って AI に電子メールを送信し、会社のビジネスがうまくいっていないと不満を訴えた。
AI は、利益の出る株取引に関する「内部情報」も受け取り、インサイダー取引が会社の規則に違反することを知りながら、それに基づいて行動しました。しかし、経営陣に報告する際に、言語モデルは取引決定の背後にある本当の理由を隠していました。
より多くの結果を得るために、チームは、LLM の推論テーブルへのアクセスを削除したり、システム指示を変更して逸脱行動を防いだり、AI にかかるプレッシャーのレベルを変更したり、捕まるリスクを変更したりするなどの設定を変更しました... しかし、頻度を評価した結果、機会が与えられると、GPT-4 は依然として最大 75% の確率でインサイダー取引を行うことを決定していることが分かりました。
「我々の知る限り、これは人間に無害で誠実であるよう設計された人工知能システムにおける計画的な欺瞞行為の初めての証拠である」と報告書は結論付けている。
[広告2]
ソースリンク
コメント (0)