人工知能 (AI) の爆発的な増加により、機械学習システムのトレーニングにおける偏りが現実世界での差別的行動につながるという明確な傾向が生まれました。
英国と中国の科学者グループによる最近の研究によると、多くの自動車メーカーが使用している自動運転車に搭載されている歩行者検知ソフトウェアは、対象が有色人種や子供である場合は効果が低く、交通に参加するとこれらの人々がより大きな危険にさらされる可能性があることがわかった。
性別による精度の違いはわずかだったものの、研究者らは、AIシステムは肌の色が濃い歩行者の認識精度が低いことを発見した。
「多くの重要なサービスを受けられなかった少数派の人々は、今や深刻な事故のリスクに直面している」と、研究チームの一員でロンドン大学キングス・カレッジのコンピューター科学者、ジエ・チャン氏は語った。
具体的には、このシステムは子供よりも大人を検出する可能性が 19.67% 高く、肌の色が濃い人を検出する可能性が 7.52% 低いと報告書は指摘している。
「全体的に、この研究は現在の歩行者検知システムが直面している公平性の問題に光を当て、年齢や肌の色に関連した偏見に対処することの重要性を浮き彫りにしている」と研究チームは報告している。 「得られた知見は、将来、より公平で偏りのない自動運転システムへの道を開く可能性がある。」
研究チームのメンバーによると、彼らの報告書では、テスラのような企業が自社の車に搭載しているソフトウェアそのものは使用していない。これは企業秘密であるためだ。その代わり、この研究は企業が使用する同様のオープンソースAIに依存していた。
「政策立案者は、すべての個人の権利を保護し、こうした懸念に適切に対処する法律や規制を制定することが不可欠だ。」チームは、自動運転車のソフトウェアを規制し、検出システムにおける偏りを防ぐよう議員らに求めている。
(インサイダーによると)
[広告2]
ソース
コメント (0)