科学技術省によれば、世界の一般的な傾向に従い、人工知能システムは人々やコミュニティが直面している困難な問題をサポートし解決することで、人々、社会、ベトナム経済に大きな利益をもたらすことが期待されている。そのプロセスと並行して、人工知能の開発と利用のプロセスにおけるリスクを最小限に抑え、関連する経済的、倫理的、法的要素のバランスをとるための研究と対策が必要です。したがって、専門機関は、たとえそれが柔軟で拘束力のない規制であっても、ガイダンスのための基準やガイドラインを研究し、開発する必要があります。
ガイドラインでは、科学技術省が人工知能システムの責任ある研究開発のための9つの原則を定めている。
まず、協力と革新の精神: 開発者は、システムの多様性を考慮して、システムの利点を高め、リスクを制御するために調整を強化しながら、自社の AI システムと他の AI システム間の接続性と相互運用性を考慮する必要があります。
2 番目は透明性です。この原則に従う人工知能システムは、多くの場合、ユーザーまたは関連する第三者の生命、身体、プライバシー、財産に影響を及ぼす可能性があるシステムです。開発者は、適用される技術の特性とその使用方法に基づいて、システムの入力と出力を明確に識別する能力と関連する説明可能性に注意を払い、ユーザーを含む社会からの信頼を確保する必要があります。
3 番目は、制御可能性です。システムの制御可能性に関連するリスクを評価するために、開発者はシステムが関連する技術要件と標準を満たしているかどうかの事前評価を実施する必要があります。リスク評価の方法の 1 つは、リスク評価を実際に実行する前に、セキュリティと安全対策を講じた別のスペースでテストすることです。
4番目は、安全原則です。開発者は、人工知能システムが仲介者を通じてもユーザーや第三者の生命、身体、財産に危害を及ぼさないことを保証する必要があります。
5. セキュリティの原則: 開発者は、ドキュメントや指示に従い、規定どおりに情報セキュリティ対策を実施するだけでなく、システムの信頼性と物理的な攻撃や事故に対する耐性などの点にも注意を払う必要があります。安全;誠実さ;システムの情報セキュリティに関連する必要な情報の入手可能性…
6番目、プライバシー: 開発者は、人工知能システムがユーザーや第三者のプライバシーを侵害しないようにする必要があります。プライバシーには、空間プライバシー(私生活における安心感)、情報プライバシー(個人データ)、通信の機密性が含まれます。開発者は現在の規制とガイドラインを適用する必要があります。プライバシーに関する国際基準およびガイドラインを参照することができます。
開発者はプライバシーリスクの事前評価とプライバシーへの影響の事前評価を実施する必要があります。システム開発時に適用した技術の特性に応じて、可能な限り適切な対策を講じ、運用時のプライバシー侵害を回避する。
第 7 に、人権と尊厳の尊重: 人間が関与する人工知能システムを開発する場合、開発者は関係する個人の人権と尊厳を尊重するよう特別な注意を払う必要があります。開発者は、適用する技術の特性に応じて、システムをトレーニングする際に、データの偏りによる差別や不公平が生じないように、可能な限り対策を講じる必要があります。
開発者は、システムがベトナムの基本原則(愛国心、連帯、自立、忠誠心、誠実さ、責任、規律、創造性などの価値観など)に従って、人間の価値観や社会倫理に違反しないように注意する必要があります。
8、ユーザーサポート:ユーザーをサポートするために、システム開発者は次のような点に注意する必要があります:ユーザーが意思決定を行い便利に使用できるように、タイムリーで関連性の高い情報を提供する既製のインターフェースを作成すること。社会的弱者(高齢者、障害者)にとってシステムを利用しやすくするための措置を講じる。
9 番目、説明責任: 開発者は、ユーザーの信頼を確保するために、開発するシステムに対して説明責任を負う必要があります。具体的には、ユーザーがシステムを選択して使用する際に役立つ情報を提供する必要があります。さらに、システムの社会的受容性を高めるために、開発者はさらに多くのことを行う必要があります。開発するシステムの技術的特性、アルゴリズム、セキュリティ メカニズムなどの情報と説明をユーザーに提供します。利害関係者の意見に耳を傾け、対話する。
[広告2]
出典: https://nhandan.vn/nghien-cuu-phat-trien-cac-he-thong-tri-tue-nhan-tao-co-trach-nhiem-post814609.html
コメント (0)