最新のポリシーでは、Meta は今後リリースしないことを検討している 2 種類の AI システムを定義しています。
「フロンティア AI フレームワーク」文書では、Meta がリリースすべきでないと考える AI システムを「高リスク」と「重大リスク」の 2 種類に分類しています。これは親会社であるFacebookがAI技術に対してより慎重であることを示しています。
以前、CEOのマーク・ザッカーバーグ氏は、汎用人工知能(AGI)を普及させると約束した。
Meta の定義によれば、「高リスク」システムと「重大リスク」システムはどちらもサイバー攻撃、生物攻撃、化学攻撃に対応できますが、「重大リスク」システムは「緩和されない壊滅的な結果」につながるという違いがあります。
Meta は、厳重に保護された企業環境に自動的に侵入したり、影響力の大きい生物兵器を拡散したりするなど、さまざまなシナリオを提案しています。
これらは、強力な AI システムのリリースによって発生する可能性があると同社が考える「最も差し迫った」シナリオです。
システム分類は経験的なテストに基づくものではなく、社内外の専門家からの意見に基づいています。
システムが「高リスク」であると判断された場合、Meta はシステムへのアクセスを内部的に制限し、リスクを中程度のレベルにまで軽減する緩和策が実施されるまでシステムを起動しません。
一方、システムが「重大なリスク」と特定された場合、Meta はシステムが侵害されるのを防ぐために不特定の保護を適用し、危険性が低くなるまで開発を停止します。
TechCrunch によると、Frontier AI Framework は、Meta のシステム開発に対するオープンなアプローチに対する批判を和らげることを目的としているようです。
Meta は、OpenAI のように非公開にするのではなく、AI テクノロジーのソースコードを公開することがよくあります。企業にとって、オープンアプローチには利点と欠点の両方があります。同社のLlama AIモデルは数億回ダウンロードされているが、Llamaは米国に敵対的なチャットボットの開発にも悪用されたと言われている。
Meta 社は Frontier AI Framework を発表することで、現在最も有名な中国の AI スタートアップ企業である DeepSeek をターゲットにしているのかもしれない。 DeepSeek もオープンソースの AI 戦略を追求していますが、安全策があまりなく、簡単に改変されて悪意のある出力が生成されます。
メタ氏によると、高度な AI をどのように開発し適用するかを決定する際に長所と短所を比較検討すると、その技術は利益を維持しながら適切なレベルのリスクを維持した形で社会に貢献できるという。
(TechCrunchによると)
[広告2]
出典: https://vietnamnet.vn/meta-co-the-dung-phat-trien-cac-he-thong-ai-qua-rui-ro-2368745.html
コメント (0)