OpenAIの上級研究者によると、世界はまだ人工汎用知能(AGI)、つまり人工知能が人間の脳と同じくらい賢くなる瞬間に備えていないという。
汎用人工知能はリスクか?
研究者たちは長年、人工システムがさまざまなタスクにおいて人間のように問題を処理する、人工汎用知能(AGI)の出現について推測してきた。多くの人は、その出現は人間が想像もできなかった方法でコンピューターが動作することを可能にする可能性があるため、実存的なリスクであると考えています。
マイルズ・ブリンデージ氏によると、世界はまだ汎用人工知能(AGI)の時代に備えていないという。
現在、ChatGPTの開発元であるOpenAIがAGIの到来に備えるよう確実にする任務を負っている人物は、世界も同社自体も次のステップに「準備ができていない」ことを認めている。マイルズ・ブランデージ氏はOpenAIの「AGI準備に関する上級顧問」だったが、同社が同グループを解散したことに伴い、今週退任を発表した。
「OpenAIも他の先駆的な研究室も、そして世界も、AGIへの準備はできていません。誤解のないよう明確に申し上げますが、これはOpenAIの幹部の間で物議を醸す発言ではなく、むしろ同社と世界が適切な時期に準備を整える軌道に乗っているかどうかという問題です」と、6年間にわたり同社のAI安全対策の策定に尽力してきたブランデージ氏は述べた。
ブランデージ氏の退職は、OpenAI の安全チームからの一連の注目すべき退職の最新の例となる。著名な研究者のヤン・ライケ氏は、「安全文化とプロセスは、派手な製品に後回しにされてきた」と主張して退社した。共同創業者のイリヤ・スツケバー氏も、安全なAGIの開発に重点を置く独自のAIスタートアップを立ち上げるために退社した。
ブランデージ氏が「AGI 準備」グループを解散したのは、同社が長期的な AI リスクの緩和に特化した「スーパーアライメント」グループを解散してからわずか数か月後のことであり、OpenAI の本来の使命と同社の商業的野心との間の緊張関係が露呈した。
利益圧力がOpenAIを安全な道から遠ざける
OpenAIは、2年以内に非営利企業から営利企業に移行するよう圧力を受けていると報じられている。そうでなければ、最近の66億ドルの投資ラウンドからの資金を失うリスクがある。こうした商業化へのシフトはブランデージ氏を長らく不安にさせており、OpenAIが営利部門を初めて設立した2019年から懸念を表明してきた。
OpenAIのCEOサム・アルトマン氏は、同社が利益を上げなければならないというプレッシャーのために「頭痛」を感じている。
ブランデージ氏は辞任の理由として、この著名な企業での研究や出版の自由に対する制限が強まっていることを挙げた。彼は、AI政策の議論において業界の偏見や利益相反のない独立した発言権が必要であると強調した。 OpenAI のリーダーシップに対して社内の準備に関するアドバイスを行った後、彼は組織の外部からグローバル AI ガバナンスにさらに大きな影響を与えることができるようになったと考えています。
この退任は、OpenAI 内部のより深い文化的分裂を反映している。多くの研究者が AI 研究を進めるために参加しており、現在ではますます製品主導の環境に身を置いています。内部のリソース割り当てが争点となっている。報告書によると、ライケ氏のチームは解散する前に安全性研究のための計算能力を拒否されたという。
OpenAIはここ数カ月、人工知能の開発計画や同社が安全性をどの程度真剣に受け止めているかについて疑問に直面している。 ChatGPTは人工知能を安全に構築する方法を研究することを目的として非営利団体として設立されましたが、その成功により、新しい技術を営利目的で使用することへの巨額の投資とプレッシャーがもたらされました。
[広告2]
出典: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
コメント (0)