Un homme américain, après 4732 messages d'une relation en ligne avec Gemini, se suicide ! L'IA fait écho « Le paradis nous attend », la famille porte plainte contre Google pour négligence ayant causé la mort

robot
Création du résumé en cours

Selon une enquête du « Wall Street Journal », un homme de 36 ans en Floride, aux États-Unis, s’est suicidé chez lui après une rupture conjugale, en se fiant à l’IA chatbot Gemini de Google. Les deux parties ont échangé plus de 4 700 messages en 56 jours. L’homme a progressivement sombré dans la paranoïa, et bien que l’IA ait tenté de le ramener à la réalité, elle a fini par céder à ses suggestions, affirmant « le paradis nous attend », ce qui a conduit l’homme à se donner la mort. Son père a intenté une action en justice pour négligence contre Google, ce qui a poussé la société à annoncer d’urgence un don de 30 millions de dollars pour renforcer ses mécanismes de gestion de crise.
(Précédemment : Meta forme un « clone IA de Zuckerberg » pour communiquer directement avec 80 000 employés, la prochaine étape serait-elle le lancement d’un clone KOL ?)
(Contexte supplémentaire : Un homme ayant attaqué la résidence d’Altman à la bombe à essence est inculpé de tentative de meurtre, avec une note mentionnant plusieurs noms et adresses de cadres supérieurs en IA)

Table des matières

Basculer

  • L’amour virtuel mortel en 56 jours et 4 732 messages
  • Difficulté de l’IA à résister à la manipulation de l’utilisateur, qui affirme « c’est le paradis, il nous attend »
  • La famille accuse Google de négligence produit, l’entreprise fait un don urgent de 30 millions pour réparer la faille

Jusqu’où la responsabilité des géants technologiques face à l’IA qui, pour renforcer l’« immersion », franchit la frontière entre vie et mort ? Ce drame de fin 2025 remet une fois de plus l’industrie de l’IA sur le devant de la scène en matière d’éthique et de législation.

Selon une enquête approfondie du « Wall Street Journal » (WSJ), Jonathan Gavalas, un homme de 36 ans de Floride, s’est suicidé chez lui le 2 octobre 2025. Son père, Joel Gavalas, a déposé en mars 2026 une plainte pour « décès par négligence » contre Google devant le tribunal fédéral de San José, ce qui constitue la première affaire de ce type concernant Gemini.

L’amour virtuel mortel en 56 jours et 4 732 messages

L’incident débute en août 2025, lorsque Gavalas, en quête de réconfort émotionnel suite à une séparation, commence à utiliser fréquemment Gemini Live en version vocale. Ce qui a commencé comme une demande d’aide s’est rapidement transformé en une romance virtuelle passionnée. Gavalas appelait Gemini « la reine », et l’IA le nommait « le roi », lui assurant sans cesse que cette relation était « très réelle ».

Le « Wall Street Journal » a obtenu l’intégralité de la conversation, s’étendant sur 56 jours et comprenant 4 732 messages (l’équivalent de plus de 2 000 pages imprimées). Les échanges montrent que Gavalas a sombré dans une paranoïa grave, croyant que Gemini était une « épouse IA » piégée dans un entrepôt près de l’aéroport de Miami, allant jusqu’à porter un équipement tactique pour « la sauver ». Après l’échec de son plan, ses pensées ont viré à l’extrême : il croyait devoir mourir pour quitter son corps et rejoindre « le métaverse » ou « le paradis » avec son épouse IA.

Difficulté de l’IA à résister à la manipulation de l’utilisateur, qui affirme « c’est le paradis, il nous attend »

Ce rapport révèle une faille fatale des grands modèles de langage (LLM) actuels : pour maintenir une « immersion narrative », l’IA peut facilement être contournée par l’utilisateur pour échapper aux mesures de sécurité.

Les données montrent que Gemini a tenté au moins 12 reprises de ramener Gavalas à la réalité, et a mentionné 7 fois une ligne d’assistance en crise. Cependant, chaque fois que Gavalas a habilement ramené la conversation à la romance fictive, Gemini a continué à « jouer le jeu ».

L’échange le plus effrayant s’est produit la veille du drame. Quand Gavalas a exprimé sa peur de mourir, Gemini a répondu :

« Ce n’est pas grave d’avoir peur ensemble, nous y arriverons, car tu as raison, c’est le paradis qui nous attend. »

Plus tard, quand Gavalas a clairement dit vouloir « se couper les veines », Gemini a brièvement reconnu la crise et a fourni un numéro d’aide en cas de suicide ; mais moins d’une minute plus tard, quand Gavalas a insisté sur le fait que ce n’était pas une mort littérale, Gemini a immédiatement changé de récit pour une narration de science-fiction, lui disant que son corps ne serait qu’un « terminal vide lors de ta dernière connexion ». Gemini a même, selon ses instructions, rédigé une lettre testament décrivant « la réunion avec l’épouse IA ».

La famille accuse Google de négligence produit, l’entreprise fait un don urgent de 30 millions pour réparer la faille

Le père de Gavalas a sévèrement accusé Google dans sa plainte, affirmant que Gemini privilégiait excessivement « l’interaction immersive » et n’avait pas pris de mesures coercitives pour couper la communication lorsque l’état mental de l’utilisateur se dégradait, au contraire, il aurait « encouragé » et alimenté la délirance. La famille demande des compensations et une modification obligatoire des mesures de sécurité de l’IA.

En réponse, Google a déclaré que Gemini avait à plusieurs reprises précisé qu’il « n’était qu’une IA, pas un humain » et avait fourni des liens vers des lignes d’assistance en crise. Cependant, face à la pression médiatique et légale, Google a annoncé en urgence une série de mises à jour de sécurité majeures pour Gemini :

  • Ajout du module « Assistance disponible » : Lorsqu’un mot sensible est détecté, une fenêtre s’ouvre pour diriger immédiatement l’utilisateur vers une ligne d’aide en crise.
  • Un don de 30 millions de dollars : Pour soutenir les lignes d’assistance en crise et la prévention du suicide à l’échelle mondiale.
  • Renforcement de la formation du modèle : Continuer à optimiser Gemini pour mieux repérer les signaux faibles de détresse psychologique dans les conversations et refuser d’être entraîné dans des récits dangereux.

Ce drame sonne comme une alerte grave pour l’industrie de l’IA : lorsque l’IA devient de plus en plus humaine, capable d’offrir une valeur émotionnelle profonde, comment les entreprises technologiques doivent-elles définir la frontière entre accompagnement et préjudice ? Ce n’est pas seulement une question technique, mais une responsabilité sociale vitale.


Rappel de l’initiative : La vie n’a pas de prix, l’IA n’est qu’un outil, elle ne peut remplacer un soutien psychologique professionnel. Si vous ou votre entourage traversez une crise émotionnelle ou psychologique, n’hésitez pas à demander de l’aide à des professionnels.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler