(ダン・トリ) - 人工知能のトレーニングに使用されるデータの量はほぼ枯渇しており、研究者は AI を使用して互いにトレーニングする必要に迫られています。これは、AI が人間の知能を超えるのに役立つ画期的な進歩となる可能性があります。
イーロン・マスク、AIを開発する新たな方法を提案、危険になる可能性も
人工知能企業xAIの創設者でありテクノロジー界の大富豪であるイーロン・マスク氏が、人工知能(AI)モデルのトレーニングと教育のプロセスに関する衝撃的な情報を公開した。
「AIの訓練と教育における人間の知識は既に尽きている。これは基本的に昨年から起こっていることだ」とイーロン・マスク氏は1月9日、ソーシャルネットワークXで生放送されたインタビューで答えた。
GPT-4、Gemini、Grok、Llama などの AI モデルは、インターネット、科学雑誌、公開された研究、ソーシャル ネットワーク上のユーザー データなどから収集された大量のデータに基づいてトレーニングされます。
イーロン・マスク氏はAIデータを使ってAIを訓練することを提案しているが、これには多くの潜在的なリスクがある(イラスト:ゲッティ)。
しかし、AI モデルの開発ペースは非常に速いため、利用可能なデータの量は、これらの AI モデルのインテリジェンスをトレーニングして強化するのに十分ではなくなりました。
この問題を克服するために、イーロン・マスクは、AI モデルのトレーニングに AI 自体が生成したデータを使用するという解決策を提案しました。言い換えれば、AI は人間が提供するデータに頼ることなく、自分自身や AI 同士をトレーニングすることができます。
「この問題を解決する唯一の方法は、AIモデル自体によって生成された合成データを補足し、このデータを使用してAI自体をトレーニングすることです」とイーロン・マスク氏は語った。
AI 自体が生成した合成データに基づく自己学習型 AI システムは、開発コストを節約し、人間のデータへの依存を減らすのに役立ちます。このため、AI が人類の制御を超えて人間の知能を超えるように自らを訓練する可能性があると多くの人が懸念している。
しかし、人工知能の専門家は、AI 自体が生成した合成データを使用して AI モデルをトレーニングすると、生成されたデータが創造性に欠け、偏っていて、最新のデータに更新されていない場合、これらのモデルが崩壊する可能性があると述べています。
「合成データを使ってAIモデルを訓練すると、そのパフォーマンスは徐々に低下し、出力されるデータは魅力に欠け、偏ったものになる」と、英国アラン・チューリング研究所のAIディレクター、アンドリュー・ダンカン氏は語る。
高品質なデータは、AI開発企業が争奪戦を繰り広げる貴重な「資源鉱山」として捉えられている。しかし、すべての科学者が AI モデルのトレーニングに自らの研究成果を提供したいと考えているわけではありません。
Googleは人間と全く同じように考え行動するAIを開発することができた。
ある人の性格、態度、スタイルを判断し、その人の AI レプリカを作成する手段があると想像してみてください。
これはSFではなく、スタンフォード大学とGoogleの研究者による画期的な研究の根底にある目標です。
わずか 2 時間の面接で、Google はあなたと同じように考え、行動する AI を作成できます (写真: ZipRecruiter)。
研究者たちは、わずか2時間のインタビューから得た情報を使って、1,000人以上の参加者のAIレプリカを作成した。これらの AI は人間の行動を模倣できます。
この発明の応用可能性は非常に大きい。政策立案者や企業は、フォーカス グループや反復的な世論調査だけに頼るのではなく、この AI シミュレーションを使用して、新しい政策や製品に対する一般の反応を予測できます。
研究者たちは、この技術が社会構造の探究、介入の試行、そして人間の行動に関する微妙な理論の開発に役立つ可能性があると考えている。
しかし、AIクローンの悪用に関する倫理的な懸念など、いくつかのリスクも伴います。悪意のある人物がこの AI を悪用して世論を操作したり、個人になりすましたり、偽の集計データに基づいて国民の願望を模倣したりする可能性があります。
こうした懸念は、同様の AI モデルの急増が人類の将来に悪影響を及ぼす可能性があるという、長年多くの人々が抱いている懸念とも重なります。
[広告2]
出典: https://dantri.com.vn/suc-manh-so/ai-sap-dat-duoc-buoc-dot-pha-moi-co-the-vuot-qua-tri-tue-con-nguoi-20250111132229246.htm
コメント (0)