ロイター通信によると、11月26日に発表された20ページの文書では、18カ国がAI研究・応用企業は顧客や一般大衆を悪用から守る形で技術を開発・展開する必要があることに同意した。
この合意は拘束力がなく、主にAIシステムを監視して不正使用を検出・防止すること、データを保護すること、ソフトウェアベンダーを審査することなど、一般的な勧告を行っている。
AIの発展は、技術分野での競争と多くの懸念をもたらします。
しかし、米国サイバーセキュリティ・インフラセキュリティ庁のジェン・イースタリー局長は、AIシステムは安全性を最優先する必要があるとの見解を多くの国が共有することが重要だと述べた。
「各国が一致団結して、こうした能力は単に機能の魅力や、いかに早く市場に投入できるか、あるいはいかにしてコスト削減で競争できるかだけの問題ではないと発言するのは初めてだ」とイースタリー氏はロイター通信に語った。同当局者は、このガイドラインは「設計段階で確保すべき最も重要なことはセキュリティであるという合意」を表していると述べた。
この合意は、AIの発展を形作ることを目的とした世界各国政府による一連の取り組みの中で最新のものである。 AI の影響は、業界全体、そして社会全体でますます感じられるようになっています。
この文書は、AI システムをハッカーの攻撃から保護する方法についての疑問に答えており、徹底したセキュリティ テストを行った後にのみ新しいモデルをリリースするなどの推奨事項も含まれています。新しいガイドラインでは、AIの適切な使用や、これらのモデルに供給するデータの収集方法といった難しい問題には対処していない。
AIの台頭により、AIが民主的なプロセスを混乱させたり、詐欺を助長したり、大量の失業を引き起こしたりするなどの危害をもたらす可能性があるという懸念など、多くの懸念が生じている。
欧州はAI関連の規制制定において米国より先行している。フランス、ドイツ、イタリアも最近、AIの基礎モデルに関して、この分野をどのように規制するかについて合意に達した。
バイデン政権は議員らにAI規制について圧力をかけているが、深刻な二極化が進む議会では効果的な規制の可決にほとんど進展が見られない。
ホワイトハウスは10月に新たな大統領令を出し、国家安全保障を強化しながら、消費者、労働者、少数派に対するAIのリスクを軽減することを目指した。
[広告2]
ソースリンク
コメント (0)