ベトナムが初のAI倫理規定を制定

人工知能(AI)は人々、社会、そしてベトナム経済に大きな利益をもたらすと期待されています。ベトナムは、AIの応用と並行して、経済的、倫理的、法的要素のバランスを取りながら、AIの開発と使用のプロセスにおけるリスクを最小限に抑えるための研究と対策を最初に実施しました。

これは、科学技術省(MOST)が人工知能システムの責任ある研究開発に関するいくつかの原則をガイドする一連の文書を発行した理由でもあります。

このガイダンス文書では、人工知能システムの研究、設計、開発、提供のプロセスにおいて参照および適用するためのいくつかの一般原則と自主的な推奨事項を示しています。

人工知能システムの研究、設計、開発、提供に携わる科学技術機関、組織、企業、個人は、このガイダンス文書を適用することをお勧めします。

W-vien-han-lam-illustration-ai-tri-tue-nhan-tao-1.jpg
ベトナム国際イノベーション博覧会2023に展示されたベトナム科学技術アカデミーのロボット模型。写真:トロン・ダット

したがって、ベトナムにおけるAIシステムの研究開発は、利益とリスクの合理的なバランスを確保しながら、誰もが人工知能の恩恵を享受できる人間中心の社会に向かうという基本的な観点に基づく必要があります。

ベトナムにおけるAIシステムの研究開発活動は、技術的な中立性を確保することを目的としています。いずれの場合も、科学技術省は関係者の参加による交流と議論を奨励しています。原則とガイドラインは、実際の状況に合わせて引き続き研究され、更新されます。

科学技術省は、この文書セットの誕生は、ベトナムにおける人工知能の研究、開発、利用への関心を安全かつ責任ある方法で促進し、人々やコミュニティへの悪影響を最小限に抑えることを目的としていると述べた。これにより、AIに対するユーザーと社会の信頼が高まり、ベトナムにおける人工知能の研究開発が促進されます。

責任あるAI開発の原則

この文書では、開発者は協力の精神を発揮し、人工知能システムの接続と相互作用を通じてイノベーションを促進することが奨励されています。開発者は、AI システムの入力/出力を制御し、関連する分析を説明する機能によって透明性を確保する必要があります。

開発者は、人工知能システムを制御する能力に注意を払い、それに伴うリスクを事前に評価する必要があります。リスク評価の方法としては、実用化する前に実験室などの別の空間や、セキュリティや安全性が確保された環境でテストを行うというものがあります。

さらに、AI システムの制御可能性を確保するために、開発者は、人間または信頼できる AI システムによって実行されるシステム監視 (評価/監視ツールまたはユーザーからのフィードバックに基づく修正/更新を使用) と対応措置 (システムのシャットダウン、ネットワークのシャットダウンなど) に注意を払う必要があります。

AI AIロボット あんあん3.jpg
ベトナムの技術者らが開発した人工知能「ロボット」アナンに若者が質問する。写真: トロン・ダット

開発者は、人工知能システムが、仲介者を介しても含め、ユーザーまたは第三者の生命、身体または財産に危害を与えないことを保証するものとします。人工知能システムのセキュリティ、信頼性、物理的な攻撃や事故に耐える能力に注意を払う必要があります。 AI システムがユーザーや第三者のプライバシーを侵害しないようにする必要があります。この原則で言及されているプラ​​イバシー権には、空間プライバシー(私生活における安心感)、情報プライバシー(個人データ)、通信の秘密保持などが含まれます。

人工知能システムを開発する場合、開発者は人権と尊厳を尊重するよう特別な注意を払う必要があります。開発者は、適用する技術の特性に応じて、可能な限り、学習データに偏り(偏見)による差別や不公平が生じないように対策を講じる必要があります。それだけでなく、開発者は利害関係者に対する説明責任を果たし、ユーザーをサポートする必要があります。

4.0時代のジャーナリズムはAI「高速列車」を見逃してはならない。ジャーナリストは、AI をためらったり恐れたりするのではなく、積極的に人工知能をニュースルームの運営に取り入れるべきです。