自動運転車のAI安全センサーは有色人種や子供に対して精度が低い

VietNamNetVietNamNet05/09/2023

[広告_1]

人工知能 (AI) の爆発的な増加により、機械学習システムのトレーニングにおける偏りが現実世界での差別的行動につながるという明確な傾向が生まれました。

英国と中国の科学者グループによる最近の研究によると、多くの自動車メーカーが使用している自動運転車に搭載されている歩行者検知ソフトウェアは、対象が有色人種や子供である場合は効果が低く、交通に参加するとこれらの人々がより大きな危険にさらされる可能性があることがわかった。

自動運転車のAIは有色人種や子供に対しては効果が低い傾向があり、重大な事故につながる可能性がある。

性別による精度の違いはわずかだったものの、研究者らは、AIシステムは肌の色が濃い歩行者の認識精度が低いことを発見した。

「多くの重要なサービスを受けられなかった少数派の人々は、今や深刻な事故のリスクに直面している」と、研究チームの一員でロンドン大学キングス・カレッジのコンピューター科学者、ジエ・チャン氏は語った。

具体的には、このシステムは子供よりも大人を検出する可能性が 19.67% 高く、肌の色が濃い人を検出する可能性が 7.52% 低いと報告書は指摘している。

「全体的に、この研究は現在の歩行者検知システムが直面している公平性の問題に光を当て、年齢や肌の色に関連した偏見に対処することの重要性を浮き彫りにしている」と研究チームは報告している。 「得られた知見は、将来、より公平で偏りのない自動運転システムへの道を開く可能性がある。」

研究チームのメンバーによると、彼らの報告書では、テスラのような企業が自社の車に搭載しているソフトウェアそのものは使用していない。これは企業秘密であるためだ。その代わり、この研究は企業が使用する同様のオープンソースAIに依存していた。

「政策立案者は、すべての個人の権利を保護し、こうした懸念に適切に対処する法律や規制を制定することが不可欠だ。」チームは、自動運転車のソフトウェアを規制し、検出システムにおける偏りを防ぐよう議員らに求めている。

(インサイダーによると)


[広告2]
ソース

コメント (0)

No data
No data

同じトピック

同じカテゴリー

ベトナム、ウクライナ紛争の平和的解決を呼び掛け
ハザン省におけるコミュニティ観光の発展:内在文化が経済の「てこ」として機能するとき
フランス人父親が娘をベトナムに連れ帰り母親を探す:1日後に信じられないDNA検査結果
私の目にはカントー

同じ著者

画像

遺産

仕事

No videos available

ニュース

省庁 - 支部

地元

製品