SGPO
カスペルスキーは、責任ある技術開発への取り組みを強化するために、企業システムの開発と使用に人工知能(AI)または機械学習(ML)を適用するための倫理原則を提示しています。責任と透明性
Kaspersky は、AI のサブセットである ML アルゴリズムをエンタープライズ ソリューションに 20 年近く使用してきました。 |
サイバーセキュリティにおける AI アルゴリズムの役割がますます重要になるにつれ、カスペルスキーのホワイト ペーパーの原則では、企業が AI テクノロジーの信頼性を確保する方法とガイダンスが説明されています。業界のプレーヤーは、AI/ML アルゴリズムの使用に関連するリスクを軽減します。
人工知能と人間の専門知識を組み合わせることで、Kaspersky ソリューションは幅広いサイバー脅威を効果的に検出し、対処できるようになります。その中で、MLは脅威の自動検出や異常の識別、マルウェア検出の精度向上に重要な役割を果たします。
イノベーションを促進するために、カスペルスキーは AI/ML の開発と使用に関する倫理原則を策定しました。これらの原則は、AI が賢明に使用され、より良い世界が実現されるようにするための多国間外交ツールとして、業界にも公開されています。
透明性の原則は、企業は製品やサービスで使用される AI/ML テクノロジーについて顧客に通知する必要があるという Kaspersky の強い信念を反映しています。カスペルスキーは、できるだけ使いやすい AI/ML システムを開発し、ソリューションの仕組みや AI/MI テクノロジーの活用方法について関係者と情報を共有することで、この原則を遵守しています。
Kaspersky によると、AI/ML の開発と使用を促進するには、透明性、安全性という 6 つの原則を考慮する必要があります。人間による制御;プライバシー;サイバーセキュリティ目的での使用へのコミットメント。オープンな対話…
[広告2]
ソース
コメント (0)