両社は、米国連邦政府機関である国立標準技術研究所(NIST)傘下の米国AI安全研究所と協力する。これは、OpenAI の ChatGPT の立ち上げ以来大きな懸念事項となっていた AI 技術の管理と監視における重要な前進とみなされています。
「これはまだ始まりに過ぎないが、AIの未来を責任を持って管理する取り組みにおける重要な節目だ」と、米国AI安全研究所のエリザベス・ケリー所長は語った。
この合意に基づき、米国AI安全研究所は両社に対し、モデルの公開前と公開後の両方でモデルの潜在的な安全性改善に関するフィードバックを提供する。同研究所はこのプロセスにおいて、英国のAI安全研究所とも緊密に連携していく予定だ。
「米国AI安全研究所との提携により、同研究所の豊富な専門知識を活用し、当社のモデルを広く展開する前に厳密にテストすることができます。これにより、リスクを特定して軽減する当社の能力が強化され、責任あるAI開発が促進されます」と、アンスロピックの共同創設者兼政策責任者のジャック・クラーク氏は述べた。
この動きは、米国でAIモデルを迅速に導入するための法的枠組みを構築することを目指し、2023年に予定されているホワイトハウスのAIに関する大統領令を施行するための取り組みの一環である。
しかし、連邦政府が自主的なアプローチを追求している一方で、アメリカのテクノロジーの中心地であるカリフォルニア州の議員らは、8月28日に州レベルのAI安全法案を可決したばかりだ。この法案が知事によって署名されれば、AI業界にさらに厳しい規制が課されることになる。
OpenAIのCEOサム・アルトマン氏は、AIを州レベルではなく国家レベルで規制することへの支持を表明し、そうすることでAI分野の研究や革新を妨げるリスクを回避するのに役立つと主張した。
大手テクノロジー企業と米国政府によるこの動きは、急速に進化するAI分野において、革新と安全性のバランスを取ろうとする傾向を示している。
[広告2]
出典: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html
コメント (0)