Tech.coの情報筋によると、CEOのサム・アルトマンが解雇され、その後OpenAIに復帰したことをめぐる論争が続く中、噂の一つは同社の研究者が取締役会に送った手紙に関するもので、開発中のAIスーパーインテリジェンスモデルが人類に潜在的に脅威を与える可能性があるという懸念を表明していたという。
(図)
プロジェクトQ*
社内でプロジェクトQ*(Qスターと発音)として知られているこのモデルは、累積学習が可能でほとんどのタスクで人間を上回る能力を持つ、高度に自律的な超知能である汎用人工知能(AGI)の実現に向けたOpenAIの取り組みにおいて大きな進歩を示すものと言われている。
事情に詳しい関係者によると、Q*はAIの推論能力を劇的に改善し、OpenAIをAGI開発における大きな進歩に近づけることで、人工知能に大きな飛躍をもたらす可能性があるという。
以前に学習した情報に基づいて応答を生成する能力に重点を置く現在の AI モデルとは異なり、AGI は意思決定に「理由」を適用できる自律システムであり、人間レベルの問題解決能力を備えています。
AGI はまだ完全に実現されていませんが、多くの専門家は、このテクノロジーには累積的に学習する能力も備わっていると考えています。これは、人間に能力を向上させる能力を与えるもう 1 つの特性です。
いくつかの情報源によると、Q* - OpenAI のプロジェクトは、問題を解決する際に上記の特性を証明できたとのことです。それだけでなく、モデルの膨大な計算能力のおかげで、Q* は小学生を上回る成績を収め、現在の AI テクノロジーの能力をはるかに超える推論スキルと認知能力を発揮しました。
Q* がどのくらいの期間開発されてきたのか、またその用途は何かは不明だが、人事スキャンダルが発覚する前に、OpenAI は従業員と役員にこのプロジェクトについて知らせていた。
倫理的な懸念
OpenAIのCEOサム・アルトマン氏はAGI技術がイノベーションを推進すると確信しているが、一部の研究者はプロジェクトの潜在的な危険性をいち早く指摘している。
研究者らは委員会に宛てた書簡の中で、この強力なアルゴリズムが人類に及ぼす潜在的な危険性について警告した。書簡で述べられた具体的なAI倫理上の懸念は明らかにされていないが、その警告は取締役会がアルトマン氏を解雇する決定を正当化するのに十分だった。
一方、アルトマン氏を解雇した当初の理由は、CEOの「コミュニケーションが不十分だった」ためだった。その後間もなく、彼はマイクロソフトで新しい職を見つけました。この動きを受けて、OpenAIの従業員770人のうち700人が、CEOが復職しなければ同様の行動を取ると脅迫した。
同社が倒産の危機に瀕していたため、OpenAIの取締役会はアルトマン氏を最高責任者に復帰させざるを得なかった。これにより同社の経営陣の大幅な刷新も行われ、経営陣内の深い分裂が浮き彫りになった。
アルトマン氏が大統領に復帰し、プロジェクトQ*が再び承認される可能性が高まった今、新たな疑問が生じている。
プロジェクトQ*はどの程度現実的でしょうか?
OpenAI での激動の日々により AGI の概念が脚光を浴びているが、アルトマン氏がこの技術について言及したのは今回が初めてではない。
9月に、シリコンバレーの起業家はAGIを「同僚として雇うかもしれない平均的な人間」と比較したことで苦境に立たされた。同氏はさらに、このAIは優れた医師やプログラマーになる方法を学ぶことを含め、「遠く離れた同僚とできることは何でもできる」という昨年のコメントを認めた。
AGIを「平均的な人間」の知能と比較することは目新しいことではないが、AIが雇用の安定に与える影響についての懸念が高まる中、AI倫理学者でケンブリッジ大学教授のヘンリー・シェブリン氏はアルトマン氏のこの表現を「忌まわしい」とみなした。
AGI における潜在的なブレークスルーは、他の研究者たちに警鐘を鳴らしている。つまり、その技術は、人間がその影響を完全に理解できるよりも速いペースで開発されているということだ。
OpenAI は、AGI の肯定的な結果により、危険な「地雷原」を試してみる価値があると考えています。しかし、同社がこの方向へ進み続けるにつれ、アルトマン氏がユーザーや社会の利益よりも商業的成功を優先しているのではないかと懸念する人も多い。
フオン・アン(出典:Tech.co、The Guardian)
[広告2]
ソース
コメント (0)