これまで、EU加盟国は、顔スキャン技術を公共の場で特定の法執行状況においてのみ使用することに合意していた。これは、欧州議会や欧州委員会と交渉する際に各国が越えるべき「一線」とみなされている。
中道右派の一部議員は、生体認証追跡技術を使って行方不明の子どもを探したりテロ攻撃を防いだりできる例外を提案したが、これも本会議で承認されなかった。
議員らは、GPT-4のような生成AIプラットフォームに対して追加措置を講じることに同意した。したがって、OpenAIやGoogleなどの企業はリスク評価を実施し、AIモデルのトレーニングにどの著作権で保護された素材が使用されたかを公開する必要があります。
EU の規制へのアプローチはリスク評価に基づいています。彼らは、テクノロジーそのものよりもAIの使用を規制することに重点を置いており、ソーシャルスコアリングなどの一部のアプリケーションを全面的に禁止し、「高リスク」な状況でテクノロジーを使用するための基準を設定しています。
AI法案の全文は6月14日に採択され、その後のEU議会、加盟国、欧州委員会による「三者」協議への道を開いた。
欧州委員会は、AI法を2026年にも企業に適用することで年末までに合意したいと考えている。一方、一部の当局者は、インドやインドネシアとともにG7諸国に適用される企業向けの自主的な「行動規範」の制定を推進している。
EUによる人工AI規制の強化は、今後10年間で1兆3000億ドル以上の価値があると推定されるこの分野に大きな影響を与える可能性がある。EUの規則に違反すると、年間売上高の最大6%の罰金が科せられる可能性があるからだ。
(ブルームバーグによると)
[広告2]
ソース
コメント (0)