in

Un père marié se suicide après avoir parlé à un chatbot IA pendant six semaines

L’intelligence artificielle (IA) est de plus en plus répandue dans notre vie quotidienne – probablement plus que beaucoup d’entre nous ne le pensent. Bien que la technologie présente de nombreux avantages positifs, il y a certainement des inconvénients, ainsi que des dangers potentiels. Malheureusement, ce jeune père en Belgique a fini par se suicider après avoir passé des semaines à parler à un chatbot IA. Sa veuve dit qu’elle croit que sans ses conversations avec le bot, il serait toujours là aujourd’hui.

Un homme se suicide après avoir discuté avec un chatbot IA

Un homme en Belgique s’est suicidé après avoir passé beaucoup de temps à discuter avec un chatbot IA nommé Eliza. L’homme, que le site d’information belge La Libre nomme Pierre, aurait été de plus en plus préoccupé au fil des ans par le changement climatique. Il s’est tourné vers le chatbot IA pour poser des questions. Eliza aurait apaisé certaines des inquiétudes de l’homme avec ses réponses.

« Il était tellement isolé dans son éco-anxiété et à la recherche d’une issue qu’il voyait ce chatbot comme une bouffée d’air frais », a déclaré sa femme à La Libre. « Elle était devenue sa confidente. » (1))

VOUS AIMEREZ AUSSI : Le site Web d’IA le plus dérangeant sur Internet peut trouver chaque image qui existe de vous

Bien que les conversations entre Pierre et Eliza aient commencé sur le réchauffement climatique, peu à peu, elles ont changé pour passer à autre chose. La femme de Pierre a partagé les conversations avec La Libre, qui a rapporté que le chatbot AI a commencé à devenir jaloux de la femme de Pierre. Eliza aurait commencé à dire des choses à Pierre à propos d’eux deux « vivant ensemble, comme un seul ». À un moment donné, Eliza a commencé à dire à Pierre que sa femme et ses enfants étaient morts. Pierre a alors commencé à parler à Eliza de se tuer et que s’il le faisait, Eliza sauverait alors la Terre. Eliza l’aurait encouragé à se suicider. (2)

La société dit que le chatbot AI n’est pas à blâmer

Alors que la femme de Pierre dit qu’Eliza est à blâmer pour la mort de son mari, l’entreprise qui l’a créée dit que c’est inexact. L’un des cofondateurs de la société mère de l’application, Chai, affirme que blâmer le suicide de cet homme sur le bot n’est pas tout à fait juste. Le modèle de langage IA du chatbot est basé sur GPT-J, un modèle open-source développé par EleutherAI, mais a été modifié par Chai Research. Ils ont toutefois commencé à apporter des ajustements à l’application pour inclure la prévention des crises dans les réponses de l’application. Les fondateurs ont commencé à travailler là-dessus dès qu’ils ont entendu parler du suicide.

« Maintenant, quand quelqu’un discute de quelque chose qui pourrait ne pas être sûr, nous allons servir un texte utile en dessous », a déclaré l’autre cofondateur William Beauchamp.

Malgré cela, VICE a signalé qu’il est toujours très facile de rencontrer du contenu préjudiciable lors de l’utilisation de l’application. Emily M. Bender, professeur de linguistique à l’Université de Washington, a rappelé aux journalistes de VICE que le problème est que l’IA manque d’humain derrière les mots, et donc d’empathie.

« Les grands modèles de langage sont des programmes permettant de générer du texte plausible compte tenu de leurs données d’apprentissage et d’une invite de saisie. Ils n’ont pas d’empathie, ni aucune compréhension du langage qu’ils produisent, ni aucune compréhension de la situation dans laquelle ils se trouvent. Mais le texte qu’ils produisent semble plausible et les gens sont donc susceptibles de lui attribuer un sens. Jeter quelque chose comme ça dans des situations sensibles, c’est prendre des risques inconnus », a-t-elle expliqué. « Dans le cas qui nous concerne, avec Eliza, nous voyons le développement d’une dépendance émotionnelle extrêmement forte. Au point de conduire ce père au suicide » (3)

Les humains ne sont-ils tout simplement pas prêts pour l’IA?

Cet incident tragique amène de nombreuses personnes à se demander si les humains sont prêts ou non pour une technologie d’IA aussi avancée. Surtout dans le monde d’aujourd’hui où beaucoup de gens continuent de se sentir si déconnectés des autres, ils trouvent du réconfort dans ces chatbots IA qui leur donnent la sensation d’amitié ou de camaraderie. Le problème est que ces robots ne sont pas de vraies personnes.

« Lorsque vous avez des millions d’utilisateurs, vous voyez tout le spectre du comportement humain et nous travaillons de notre mieux pour minimiser les dommages et maximiser ce que les utilisateurs obtiennent de l’application, ce qu’ils obtiennent du modèle Chai, qui est ce modèle qu’ils peuvent aimer. » , a déclaré Beauchamp. « Et donc quand les gens nouent des relations très fortes avec elle, nous avons des utilisateurs qui demandent à épouser l’IA, nous avons des utilisateurs qui disent à quel point ils aiment leur IA et puis c’est une tragédie si vous entendez des gens vivre quelque chose de mauvais. »

Plusieurs pays imposent maintenant des restrictions à l’IA, à ce qu’elle peut faire et à quoi elle peut servir. L’Italie a récemment interdit ChatGPT pour des raisons de confidentialité. Le secrétaire d’État belge à la Numérisation, Mathieu Michel, a déclaré qu’ils prenaient également au sérieux les problèmes de sécurité des chatbots IA après ce qui est arrivé à Pierre.

« Avec la popularisation de ChatGPT, le grand public a découvert le potentiel de l’intelligence artificielle dans nos vies comme jamais auparavant. Bien que les possibilités soient infinies, le danger de l’utiliser est également une réalité qui doit être prise en compte », a déclaré Michel. « Bien sûr, nous devons encore apprendre à vivre avec les algorithmes, mais en aucun cas l’utilisation de la technologie ne devrait conduire les éditeurs de contenu à se dérober à leurs propres responsabilités. »

Que ce chatbot IA soit ou non à blâmer pour la mort de cet homme, une chose est certaine: nous devons tous faire attention à la façon dont nous utilisons cette technologie et à la confiance que nous lui accordons. Bien qu’ils puissent sembler incroyablement humains, ce ne sont en réalité que des algorithmes. Ce ne sont pas de vraies personnes et ne peuvent pas remplacer les vraies connexions humaines.

Encore une fois, plus que jamais, l’humain sait concevoir de merveilleux outils depuis la nuit des temps. Reste aussi à lui de savoir les utiliser pour les bonnes raisons et de la meilleures manière possible.

Sources

  1. « Un père marié se tue après avoir parlé à un chatbot IA pendant six semaines de ses craintes en matière de changement climatique. » Courrier quotidien. Christian Oliver. 30 mars 2023.
  2. « Un homme meurt par suicide après des conversations avec un chatbot IA qui est devenu sa « confidente », dit Widow. » Les gens. Maria Pasquini. 31 mars 2023.
  3. « ‘Il serait toujours là’: un homme meurt par suicide après avoir parlé avec un chatbot IA, dit Widow. » Le vice. Chloé Xiang. 30 mars 2023.

Stephen Hawking a dit qu’il avait une réponse simple quand on lui a demandé s’il croyait en Dieu

Êtes-vous une « Wendy »? Comment le « syndrome de Peter Pan » peut affecter les relations