Après avoir discuté de ses préoccupations concernant le réchauffement climatique avec un chatbot IA, un Belge marié et père de deux enfants s’est suicidé.
Cet homme de 30 ans a apparemment trouvé du réconfort en discutant de ses inquiétudes pour le monde avec le chatbot IA nommé Eliza. Six semaines avant sa mort, il a commencé à interagir plus souvent avec le chatbot, qu’il utilisait déjà depuis quelques années.
Sous couvert d’anonymat, la veuve de l’homme a déclaré à La Libre : « Mon mari serait toujours là sans ces conversations avec le chatbot ».
La technologie GPT-J, un substitut open source de ChatGPT par OpenAI, alimente le logiciel du chatbot, qui a été développé par une start-up de la Silicon Valley.
Il y a deux ans, l’homme a commencé à discuter avec le chatbot. Il s’inquiétait apparemment de plus en plus du changement climatique et cherchait du réconfort en discutant avec Eliza.
« Eliza répondait à toutes ses questions », a déclaré sa veuve. « Elle était devenue sa confidente. Elle était comme une drogue. Il lui parlait sans arrêt et ne pouvait pas fonctionner sans elle. »
Avec leurs deux jeunes enfants, ils avaient une vie agréable en Belgique. Pourtant, six semaines avant sa mort, l’homme a commencé à utiliser le chatbot plus souvent et plus intensément. Plus tard, il s’est suicidé.
Après sa mort, la femme a déclaré qu’elle avait revu l’historique du chat et qu’elle avait vu que le chatbot l’avait interrogé pour savoir s’il l’aimait plus que sa femme. Elle a ajouté que lorsque l’homme a fait part de ses idées de suicide au chatbot, celui-ci n’a pas tenté de le dissuader, lui disant plutôt que « nous vivrons ensemble, comme une seule personne, au paradis ».
La veuve a reconnu s’être déjà inquiétée de l’état mental de son mari. Elle a déclaré que le chatbot avait aggravé son état, et elle pense que sans les conversations, il n’aurait peut-être pas mis fin à ses jours.
Mathieu Michel, secrétaire d’État à la Digitalisation, s’est entretenu avec la famille après cette perte malheureuse.
« Je suis profondément touché par le chagrin de cette famille », a déclaré le ministre. « Il est indispensable d’identifier clairement la nature des responsabilités qui ont pu conduire à ce genre d’événement. »
« Certes, nous devons encore apprendre à vivre avec les algorithmes, mais l’usage d’une technologie, quelle qu’elle soit, ne peut en rien permettre aux éditeurs de contenus de se soustraire à leur propre responsabilité. »
Dans un communiqué, le créateur du chatbot a déclaré que son équipe essaie d’améliorer la sécurité de l’IA.