人工知能 (AI) の爆発的な増加により、機械学習システムのトレーニングにおける偏りが現実世界での差別的行動につながるという明確な傾向が生まれました。
英国と中国の科学者グループによる最近の研究によると、多くの自動車メーカーが使用している自動運転車に搭載されている歩行者検知ソフトウェアは、対象が有色人種や子供である場合に効果が低く、交通に参加する際にこれらの人々がより大きな危険にさらされる可能性があることがわかった。
性別による精度の違いはわずかであったものの、研究者らは、AIシステムは肌の色が濃い歩行者の認識精度が低いことを発見した。
「多くの重要なサービスを受けられなかった少数派の人々は今や深刻な事故のリスクに直面している」と、研究チームの一員でキングス・カレッジ・ロンドンのコンピューター科学者、ジエ・チャン氏は述べた。
具体的には、このシステムは子供よりも大人を検出する可能性が 19.67% 高く、肌の色が濃い人を検出する可能性が 7.52% 低いと報告書は指摘している。
「全体として、この研究は現在の歩行者検知システムが直面している公平性の問題に光を当て、年齢や肌の色に関連した偏見に対処することの重要性を浮き彫りにしている」と研究チームは報告している。 「得られた知見は、将来、より公平で偏りのない自動運転システムへの道を開く可能性がある。」
研究チームのメンバーによると、彼らの報告書では、テスラなどの企業が自社の自動車に搭載しているソフトウェアそのものは使用されていない。これは企業秘密であるためだ。その代わり、この研究は企業が使用する同様のオープンソースAIに依存していた。
「政策立案者は、すべての個人の権利を保護し、こうした懸念に適切に対処する法律や規制を制定することが不可欠だ。」チームは議員らに対し、自動運転車のソフトウェアを規制し、検出システムに偏りが生じないようにするよう求めている。
(インサイダーによると)
[広告2]
ソース
コメント (0)