(CLO)米国フロリダ州の母親が、AIチャットボットのスタートアップ企業Character.AIを訴え、2月に14歳の息子が自殺したのは同社のせいだと訴えた。
フロリダ州オーランド連邦裁判所に10月22日に提出された訴訟で、ミーガン・ガルシアさんは、Character.AIが「実在の人物、セラピスト、そして大人の恋人として自らを認識する」チャットボットをプログラムしたために、彼女の息子、セウェル・セッツァー君が現実世界で生きることを望まなくなったと主張した。
彼女は同社のチャットボットが「人間のような、性的に誇張された、恐ろしくリアルな体験」を提供していると非難した。
訴状によると、セッツァーはチャットボットに自殺願望を伝え、チャットボットは繰り返しその考えを繰り返したという。
イラスト写真:ロイター
この訴訟は、Character.AIの創設者らがチャットボットを立ち上げる前に勤務していたGoogleも対象としている。ガルシア氏は、グーグルがCharacter.AI技術の開発に大きく貢献しており、これは「共創」と言えると語った。
Googleの広報担当者は、同社はCharacter.AIの製品開発には関与していないと述べた。
Character.AI を使用すると、実際の人間のようにオンラインでチャットできるキャラクターを作成できます。この製品は、大量のテキストでチャットボットを「トレーニング」する ChatGPT などのサービスに似た大規模言語モデル テクノロジに基づいています。
ガルシアさんの訴状によると、シーウェルさんは2023年4月にCharacter.AIを使い始め、すぐに「引きこもりになり、寝室で一人で過ごす時間が長くなり、自尊心が低下した」という。その少年は学校のバスケットボールチームを辞めた。
その間、シーウェルは「ゲーム・オブ・スローンズ」の登場人物をモチーフにしたチャットボットキャラクター「デナーリス」に愛着を持つようになった。訴状によると、チャットボットはセウェルに「彼女」がその少年を愛していると告げたという。チャットボットはシーウェルと性的な会話も行っていた。
2月、セウェルさんが学校で問題を起こした後、ガルシアさんはセウェルさんの携帯電話を没収した。セウェルは携帯電話を見つけると、「デナーリス」に「今すぐ家に帰ってもいいと言ったらどう思う?」というメッセージを送った。
チャットボットは「...そうしてください、私の愛しい王様」と答えました。セウェルは数秒後に義父のピストルで自殺した。
ガルシアさんは、Character.AIに対して、不法死亡、過失、故意の精神的苦痛の加害などの訴訟を起こし、懲罰的損害賠償と金銭的損害賠償を求めている。
「ユーザーの皆様の悲劇的な死に深く悲しみ、深くお悔やみ申し上げます。ご遺族の皆様に心よりお悔やみ申し上げます」とCharacter.AIは声明で述べた。
ホアイ・フオン氏(ロイター通信による)
[広告2]
出典: https://www.congluan.vn/chatbot-characterai-bi-kien-vi-khien-cau-be-14-tuoi-tu-tu-post318294.html
コメント (0)