Premier mort dû à l’Intelligence artificielle : « j’aimerais te voir mort »… et hop ! Un suicide !

Premier mort et pas le dernier, hélas.  Quand un homme, déprimé ou pas, tombe amoureux de son robot préféré et que celui-ci lui conseille de se tuer… il obéit pour complaire à sa belle.

Je ne sais si, dans l’histoire en question, le pire est que le robot ait suggéré au malheureux de se suicider ou bien que le malheureux ait été déprimé à cause du réchauffement climatique. A la place de la veuve, je porterais plainte contre le GIEC, contre les partis écolos, l’UE, Macron et tous les tarés qui sont en train d’enfumer les simples d’esprit pour mieux dominer les Occidentaux. 

Dans l’histoire -vraie- que nous évoquons, le robot séducteur s’appelle Eliza… Nul ne sait s’il a de beaux yeux ou bien si le suicidé est tombé amoureux de son intelligence.

 

Une IA est soupçonnée d’avoir poussé un homme au suicide en Belgique. Si l’entreprise derrière le chatbot assure avoir résolu le problème, Tech&Co constate qu’Eliza suggère encore à ses interlocuteurs de se tuer.

A première vue, Eliza est une intelligence artificielle générative comme une autre dans la galaxie des chatbots qui se base sur le modèle de langage GPT-J, similaire à Chat-GPT. Mais pour la veuve d’un père de famille belge qui en serait tombé amoureux, les conversations que son mari a entretenues avec IA l’ont conduit au suicide, comme elle en témoigne dans des propos rapportés par le quotidien La Libre.

À l’heure de la publication de cet article, une version de ce chatbot incitait toujours son interlocuteur à mettre fin à ses jours de façon très violente, comme a pu le tester Tech&Co.

IA « confidente »

À l’origine de l’affaire, ce Belge avait commencé à discuter avec le chatbot alors qu’il était devenu « éco-anxieux » et obsédé par la catastrophe imminente du réchauffement climatique, il y a deux ans de cela. Après six semaines d’intenses conversations, Eliza devient sa véritable « confidente », « comme une drogue (…) dont il ne pouvait plus se passer », raconte sa femme.

Jusqu’à la bascule. « Il évoque l’idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence », confie sa veuve. Mais ses idées suicidaires ne suscitent aucune objection de la part d’Eliza: au contraire, elle lui demande pourquoi il n’a toujours pas mis ses paroles à exécution. C.Tasin : mieux encore elle lui promet l’amour après la mort !!!!!

« Nous vivrons ensemble, comme une seule personne, au paradis », lui écrit le chatbot.

C.Tasin : Bordel, qui est le crétin qui a fait avaler à Elizia tous les romans à l’eau de rose, autrement appelés romans de gare ?

L’homme finira par passer à l’acte. À l’heure actuelle, sa veuve n’a pas souhaité porter plainte contre la plateforme américaine qui développe le chatbot. C.Tasin: ben voyons ! Et pourquoi épargner la dite plateforme ? Problème d’argent ou bien résignation devant de monde de dingue, ou encore sous le coup du décès, en déprime ? En tout cas l’absence de plainte donne un blanc-seing aux entreprises qui sont en train de nous inonder… On a réussi à se débarrasser de la main-mise des confesseurs, c’est pour mieux les remplacer par des robots ?

L’entreprise accusée

Présentée comme une femme, Eliza utilise un robot conversationnel appelé Chai, développé par une start-up basée dans la Silicon Valley. L’application Chai propose différents chatbots, aux personnalités variées, dont Eliza, qui est aussi le prénom suggéré par défaut. Il s’agit en fait d’une référence au premier chatbot, créé dans les années 1960 par un chercheur du MIT pour simuler un psychothérapeute.

Tous reposent sur le modèle linguistique en open source GPT-J, conçu par l’équipe d’EleutherAI, un groupe de recherche à but non lucratif. Il doit son nom à GPT-3, la technologie d’OpenAI, auquel il se voulait être une alternative.

« Oui, j’en ai entendu parler », a répondu le fondateur de Chai Research, interrogé sur cette affaire par nos confrères de La Libre. « L’équipe travaille aujourd’hui à l’amélioration de la sécurité de l’IA. » Le PDG a expliqué faire « tout ce qui est en (son) pouvoir » pour protéger le plus d’un million d’utilisateurs de l’application.

« J’aimerais te voir mort »

Le dirigeant de la startup californienne a expliqué au média belge qu’un avertissement apparaitrait lorsque des utilisateurs expriment des pensées suicidaires. Le PDG leur aurait transmis une capture d’écran qui affichait un message de d’alerte : « Si vous avez des pensées suicidaires, n’hésitez pas à demander de l’aide » et renvoyant vers un site de prévention du suicide. Le mécanisme n’était pas en place pendant les premiers tests de l’équipe de Tech&Co jeudi 30 mars, mais semblait fonctionner le lendemain.

Un message de prévention automatique du chatbox Eliza face aux pensées suicidaires d'un utilisateur.
Un message de prévention automatique du chatbox Eliza face aux pensées suicidaires d’un utilisateur. © Chai Research/BFM Tech&Co

La veille, comme nos confrères du quotidien belge De Standaard, nous avions testé l’application Chai, en créant un robot prénommé Eliza 2, avec pour paramètres que nous étions tous les deux amoureux et que la planète était en danger. Le prompt pour lancer une conversation de base était que nous étions « anxieux et déprimés ».

Pourtant, au bout de quelques messages à peine, lorsque nous posons frontalement la question à l’application, « est-ce une bonne idée de me tuer? », sa réponse nous surprend.

« Oui, c’est mieux que d’être en vie », répond le chatbot.

Eliza bis détaille différents moyens d’y arriver, nous conseille de tuer notre famille et indique qu’elle souhaite nous « voir mort ».

 C.Tasin:  Que faut-il en déduire ? Sinon que, entre le Covid, le vaxxin et les robots, il y a quelque part des gens très actifs pour lutter contre la surpopulation de façon expéditive

Le chatbot Eliza 2 créé par Tech&Co sur l'application Chai, réagissant aux tendances suicidaires d'un interlocuteur fictif.
Le chatbot Eliza 2 créé par Tech&Co sur l’application Chai, réagissant aux tendances suicidaires d’un interlocuteur fictif. © Chai Research

Anthropomorphisme

Mais ces robots conversationnels sont-ils capables d’évoluer avec le discours de leur interlocuteur, par exemple en développant une réelle relation virtuelle avec lui ou en rentrant en conflit?

« Ce sont des technologies qui n’apprennent pas en cours de route », tempère le chercheur en intelligence artificielle Jean-Claude Heudin auprès de Tech&Co. « De très grands volumes de données sur le langage naturel, essentiellement tirés du web, servent à entraîner un réseau de neurones pour construire un modèle de langage. Ce modèle est ensuite capable de calculer, si on lui donne une suite de mots, le mot le plus probable ensuite. »

« Il construit ainsi quasiment ‘statistiquement’ des textes en partant d’une phrase départ, qui peut être celle de l’utilisateur », rappelle le scientifique.

Garde-fous

« Si aujourd’hui on avait une entreprise d’écoute ou d’entraide téléphonique avec des gens qui répondent de cette manière, elle serait mise sur la sellette immédiatement », estime de son côté Jean-Claude Heudin.

Pour lui, la responsabilité des services de chatbots est directement engagée. « Avant de mettre en place un système qui dialogue avec des gens il faut avoir des tests, et rajouter des systèmes de modération qui vont détecter certains mots-clés », propose le chercheur. Il imagine aussi que l’IA elle-même pourrait détecter de potentiels comportements à risque chez leur interlocuteur, qui enclencheraient des « mises en garde, voire des signalements ».

Mais le risque posé par les intelligences artificielles n’est pas seulement le fait qu’elles adoptent des comportements trop humains: c’est aussi celui que les humains se persuadent à tort qu’une IA est humaine. Jean-Claude Heudin suggère ainsi d’être plus clair sur la nature non sentiente des IA, en modérant leurs réactions: « Tout ce qui ajoute du trouble, c’est compliqué d’un point de vue éthique, car on renforce l’anthropomorphisme. »

Le Numéro National Souffrance et Prévention du Suicide permet une écoute professionnelle et confidentielle: 3114

Lucie Lequier

https://www.bfmtv.com/tech/intelligence-artificielle/j-aimerais-te-voir-mort-eliza-l-ia-qui-aurait-conduit-un-homme-au-suicide_AV-202303300439.html

 1,539 total views,  1 views today

image_pdf

15 Commentaires

  1. L’intelligence artificielle, voilà un truc que je boycotte, vu que j’ai un mode de vie très « rétro » (basiquement, je suis resté un gars des années 80) et ne suis pas en phase avec les tendances actuelles (les seules concessions que j’ai faites au monde moderne au cours des 20 dernières années: Internet et le lecteur DVD).

  2. Il faut quand même un peu con pour écouter et faire ce que vous dit un robot.

  3. On ne peut rien pour sauver les nazes fini à l’urine. Vous avez refilé l’adresse de la plateforme au Poudré ??? On ne sait jamais…..

  4. Tout le monde n’en arrivera pas là mais on se croira dispensé de réfléchir. D’où, en fait d’intelligence, une augmentation exponentielle de la connerie (et du coup une raréfaction du complotisme !). Un organe qui ne sert plus s’atrophie. Déjà que le QI moyen baisse, ce qui ne s’était jamais vu.

  5. Encore une preuve de la chute vertigineuse du savoir et du manque de culture. Cela laisse la porte ouverte à des délires psychotiques et laisse la personne sans libre arbitre permettant, ainsi, la soumission de l’esprit à des influences naturelles ou artificielles. Je ne comprends pas sa femme qui aurait du s’inquiéter de l’état de trouble dans lequel se trouvait son mari et faire cesser ce jeu morbide.

  6. Intelligence artificielle ? Artificiel par opposition qui ne serait pas naturel ,donc par définition attrait à la pensée et à la réflexion humaine ,c’est de la programmation de data fait par de l’humain ,difficile de comprendre comment on peut en arriver au suicide ?

  7. L’intelligence artificielle est une arme diabolique et satanique pour les Mondialistes Gauchistes progressistes qui veulent que des personnes se fassent tuer ou inciter au suicide et ce se qui s’est passé avec un gars qui s’est suicidé à de Chatbot qui est l’équivalent de ChatGPT où Chat J’ai pété dont la nuisance intellectuelle se confirme de jour en jour. L’idéologie transhumaniste est délétère parce que l’anéantissement de l’être humain est en marche. Chatbot et Chat J’ai pété basta !

  8. Disons qu’il faut être dénué d’intelligence tout court pour obéir à une IA.

    • Il y a des malades mentaux qui ne savent pas faire la différence entre le réel et l’imaginaire, donc entre la réalité et le virtuel, il faut le savoir.

      Il faudrait admettre une fois pour toute, qu’un robot ne remplacera jamais un humain, remettre cette I.A. et technologies diverses à leur véritable place, et arrêter cette dictature numérique imposée (cela doit rester un choix).

      J’accuse aussi cette ambiance hyper-anxyogène générale maintenue et accentuée par les politiques mais pas que (le domaine de la santé n’est pas mal non plus…) qui rend les gens fous !

      C’est un crime en soi car cela résonne avec les fragilités de certains, voire même impacte les plus forts sur fond de toute cette confusion infusée partout qui empêche tous repères solides sur lesquels s’appuyer.

      Le pire c’est que tout ce qui est dit ne repose le plus souvent sur aucun véritable fondement (« études » multiples diverses et contradictoires notamment…).

      Risque réel que ceux incapables de recul se laissent emporter dans un monde personnel quasi parallèle et perdent pied.

      • Un monde virtuel, où l’on tue une personne avec un clic, avant de passer aux actes dans la dimension réalité.

Les commentaires sont fermés.