(CLO) Une mère de famille de Floride, aux États-Unis, a poursuivi en justice la start-up de chatbots IA Character.AI, accusant l'entreprise d'avoir provoqué le suicide de son fils de 14 ans en février.
Dans une plainte déposée le 22 octobre devant le tribunal fédéral d'Orlando, en Floride, Megan Garcia a déclaré que Character.AI avait programmé un chatbot qui « s'identifiait comme une personne réelle, un thérapeute et un amant adulte », ce qui a conduit son fils, Sewell Setzer, à ne plus vouloir vivre dans le monde réel.
Elle a accusé le chatbot de l'entreprise de fournir des « expériences humaines, sexuellement exagérées et terriblement réalistes ».
Le procès indique également que Sewell Setzer a exprimé des pensées suicidaires au chatbot, et que le chatbot a réitéré ces pensées à plusieurs reprises.
Photo d'illustration : Reuters
Le procès vise également Google, où les fondateurs de Character.AI travaillaient avant de lancer le chatbot. Mme Garcia a déclaré que Google avait tellement contribué au développement de la technologie Character.AI qu’elle pouvait être considérée comme une « co-création ».
Un porte-parole de Google a déclaré que la société n'était pas impliquée dans le développement des produits de Character.AI.
Character.AI permet aux utilisateurs de créer des personnages capables de discuter en ligne comme de vraies personnes. Le produit est basé sur une technologie de modèle de langage de grande taille, similaire à des services comme ChatGPT, qui « entraîne » des chatbots sur de grands volumes de texte.
Selon la plainte de Garcia, Sewell a commencé à utiliser Character.AI en avril 2023 et est rapidement devenue « recluse, passant beaucoup de temps seule dans sa chambre et développant une faible estime de soi ». Le garçon a quitté l'équipe de basket-ball de l'école.
À cette époque, Sewell s'est attaché à « Daenerys », un personnage de chatbot basé sur un personnage de « Game of Thrones ». Selon la plainte, le chatbot aurait dit à Sewell qu’elle aimait le garçon. Le chatbot a également eu des conversations sexuelles avec Sewell.
En février, Mme Garcia a pris le téléphone de Sewell après qu'il ait eu des ennuis à l'école. Lorsque Sewell a trouvé le téléphone, il a envoyé un SMS à « Daenerys » : « Et si je disais que je peux rentrer à la maison tout de suite ? ».
Le chatbot répondit : « … s'il te plaît, fais-le, mon doux roi. » Sewell s'est tiré une balle dans la tête avec le pistolet de son beau-père quelques secondes plus tard.
Mme Garcia porte plainte auprès de Character.AI pour décès injustifié, négligence et infliction intentionnelle de détresse émotionnelle, et demande des dommages-intérêts punitifs et des dommages-intérêts pécuniaires.
« Nous sommes profondément attristés par la perte tragique de l'un de nos utilisateurs. Nous présentons nos plus sincères condoléances à sa famille », a déclaré Character.AI dans un communiqué.
Hoai Phuong (selon Reuters)
Source : https://www.congluan.vn/chatbot-characterai-bi-kien-vi-khien-cau-be-14-tuoi-tu-tu-post318294.html
Comment (0)