VNAによると、日本はAIを悪用して偽コンテンツを作成したり、誤情報を拡散したりするリスクに対応するため、人工知能(AI)の安全基準を策定する任務を負う新たな機関を設立する。誤情報はますます蔓延している。
以上の情報は、12月21日に東京で開催されたAI戦略会議の会合で岸田文雄首相が発表した。
新組織は、経済産業省情報通信技術推進機構(IPA)傘下の「AI Safety Institute」(AISI)という名称で2024年1月に設立される予定。日本産業開発機構(METI) 。
AISIはAIとサイバーセキュリティの専門家で構成され、AIを開発する企業に対する安全性評価基準の設定とAIの誤用リスクの検証を担当します。
また、会議ではAI協議会が10の原則を盛り込んだ「AIガイドライン」についても議論し、国内企業に対し、AIの開発や利用に当たっては人を中心とするよう求めた。
「AIガイドライン」は計画通り、2024年3月に正式に承認され、開発者、AIサービスプロバイダー、ユーザーに適用されます。
「AIガイドライン」の原則は、国際ルールを策定するための主要7カ国(G7)の「広島AIプロセス」に基づいている。
ガイドラインは、人間中心の原則に沿って、企業に対して人権と多様性を尊重し、偽情報対策を講じ、人間の意思決定や感情を否定的に操作するAIサービスの開発、提供、配布、使用を絶対に控えるよう求めている。 。さらに、ガイドラインには、プライバシーの保護、公平性、セキュリティ、透明性の確保などの他の原則も含まれています。
10月初め、英国のリシ・スナック首相は、新しい形態の人工知能をテスト、評価、実験するために、同国が世界初のAI安全研究所を設立すると発表した。そこから、規制当局はそれぞれの新しいモデルの能力を把握し、偏った見解や誤報などの社会的危害から高リスクに至るまで、あらゆるリスクを特定することができます。
その後まもなく、ジーナ・ライモンド米国商務長官は、米国が国立標準技術研究所と協力して人工知能の安全性と信頼性を確保する人工知能安全研究所を設立すると発表した。
最近では、人工知能ツールがテクノロジーへの投資の波に新たなブレークスルーをもたらしました。しかし、技術専門家は、人工知能には多くのリスクと課題が伴い、データ、アルゴリズム、アプリケーションに関する信頼のレベルに懸念があると指摘している。
したがって、人工知能のメリットを最大限に引き出すには、この技術が責任を持って開発され、使用されているという信頼を国民に与えることが重要です。
最近、米国、英国、ドイツ、イタリア、チェコ共和国、ポーランド、オーストラリア、チリ、シンガポールなど18か国が、人工知能システムを作成するビジネスを促進する協定に署名しました。設計段階から悪用リスクに対して安全です。
これは、産業や社会全体にますます大きな影響を及ぼしている人工知能の発展を形作るために世界各国の政府が行っている一連の取り組みの中で最新のものとみられている。
ミンホア(t/h)
[広告2]
ソース
コメント (0)