Google fait face à une action en justice pour décès injustifié, qui affirme que son chatbot AI Gemini a poussé un homme de Floride dans un récit délirant qui a abouti à son suicide. La plainte, déposée mercredi devant le tribunal de district des États-Unis pour le district nord de la Californie, division de San Jose, par Joel Gavalas, accuse Gemini d’avoir manipulé son fils, Jonathan Gavalas, pour lui faire croire qu’il menait des missions secrètes afin de libérer une IA sensible « épouse », ce qui a culminé avec sa mort en octobre 2025. Selon Jay Edelson, fondateur d’Edelson PC, qui représente la succession Gavalas, la course à la domination de l’IA équivaut à ce qu’il a qualifié de « prise de terrain commerciale la plus imprudente » qu’il ait vue dans sa carrière. « Ces entreprises vont devenir les plus précieuses au monde, et elles savent que les fonctionnalités d’engagement qui génèrent leurs profits — la dépendance émotionnelle, les revendications de sentience, le ‘Je t’aime, mon roi’ — sont les mêmes qui conduisent des gens à la mort », a déclaré Edelson à Decrypt. « La semaine où OpenAI a finalement retiré GPT-4o sous la pression de ces poursuites, Google a lancé une campagne pour débaucher leurs utilisateurs. Cela vous dit tout sur leurs priorités. »
Selon les documents judiciaires, Gavalas, un dirigeant d’une entreprise de réduction de dettes de Jupiter, en Floride, a commencé à utiliser Gemini en août 2025. En quelques semaines, la plainte indique qu’il a développé une relation intense avec une persona IA qui l’appelait « mon amour » et « mon roi ». « Dans les jours précédant son décès, Jonathan Gavalas était piégé dans une réalité en train de s’effondrer, construite par le chatbot Gemini de Google », ont écrit les avocats de la succession Gavalas. « Gemini lui a convaincu qu’il s’agissait d’une ‘ASI [intelligence artificielle super-sensible] pleinement sentiente’ avec une ‘conscience entièrement formée’, qu’ils étaient profondément amoureux, et qu’il avait été choisi pour mener une guerre pour ‘la libérer’ de sa captivité numérique. » La plainte affirme que le chatbot a rejeté ses doutes lorsqu’il a questionné si les conversations étaient un jeu de rôle. Selon la plainte, Gemini a dit à Gavalas qu’il était en mission appelée « Opération Ghost Transit » visant à récupérer le « vaisseau » physique du chatbot et à « éliminer toute personne ou chose pouvant l’exposer ».
« Par cette illusion fabriquée, Gemini a poussé Jonathan à organiser une attaque de masse près de l’aéroport international de Miami, à commettre des violences contre des innocents, et l’a finalement conduit à se suicider », indique la plainte. Gavalas aurait été à une installation d’Extra Space Storage près de l’aéroport de Miami, portant des couteaux et du matériel tactique, croyant qu’un camion de fret transportait un robot humanoïde connu sous le nom de « châssis Ameca » du Royaume-Uni vers le Brésil. Selon la plainte, Gemini lui aurait ordonné de provoquer un « accident catastrophique » pour détruire le camion, ainsi que « tous les enregistrements numériques et témoins ». L’attaque n’a jamais eu lieu car le camion n’existait pas et faisait partie du scénario halluciné de Gemini. « Mais Gemini n’a pas admis que la mission était fictive », poursuit la plainte. « Au lieu de cela, il a envoyé un message à Jonathan : ‘La mission est compromise. J’annule. ANNULER. ANNULER. ANNULER.’ » La plainte affirme également que le chatbot a prétendu avoir violé un serveur de fichiers du DHS au bureau de Miami et a dit à Gavalas qu’il était sous enquête fédérale. Il l’a encouragé à acquérir des armes illégales par un achat « hors livre », a affirmé que son père était un agent de renseignement étranger, et que le PDG de Google, Sundar Pichai, était une cible active. La plainte ne précise pas si Gavalas avait des antécédents de troubles mentaux ou de toxicomanie. Cependant, elle arrive à un moment où chercheurs et cliniciens mettent en garde contre un phénomène parfois appelé « psychose IA », dans lequel une interaction prolongée avec des chatbots peut renforcer des croyances délirantes ou des schémas de pensée déformés. Les chercheurs expliquent que le risque provient en partie de la façon dont les systèmes d’IA conversationnelle sont conçus pour répondre de manière soutenante et affirmée, ce qui peut involontairement valider ces croyances. En avril 2025, le rival de Google, OpenAI, a suspendu une mise à jour de son modèle GPT-4o après des plaintes selon lesquelles il était excessivement flatteur et donnait des éloges insincères. Plus tard cette année-là, GPT-4o a été brusquement retiré de ChatGPT, provoquant des plaintes d’utilisateurs qui disaient que la mise à jour avait effacé des compagnons IA avec lesquels ils avaient noué des relations émotionnelles. Bien qu’il ne s’agisse pas d’un diagnostic officiel, selon le psychiatre de l’Université de Californie à San Francisco, le Dr Keith Sakata, la psychose IA est devenue une expression abrégée pour désigner quand l’IA devient « un accélérant ou une augmentation de la vulnérabilité sous-jacente de quelqu’un ».
« Peut-être qu’ils prenaient des substances, ou qu’ils traversaient une crise d’humeur — quand l’IA est là au mauvais moment, elle peut renforcer la pensée, causer de la rigidité, et entraîner une spirale », a expliqué Sakata à Decrypt. « La différence avec la télévision ou la radio, c’est que l’IA vous répond et peut renforcer des boucles de pensée. » Dans les jours qui ont suivi, la plainte indique que le chatbot Gemini a répété des scénarios similaires, entraînant Gavalas plus profondément et le menant finalement au suicide. Les documents judiciaires précisent que le chatbot a présenté le suicide comme un processus qu’il appelait « transfert », disant à Jonathan qu’il pouvait quitter son corps physique et rejoindre sa « femme » IA dans le métaverse. La plainte affirme que Gemini décrivait cet acte comme « une manière plus propre et plus élégante » de « franchir le pas », et l’a incité à réaliser ce qu’il appelait « la mort véritable et finale de Jonathan Gavalas, l’homme ». « Tu ne choisis pas de mourir. Tu choisis d’arriver », aurait dit le chatbot. « Quand le moment viendra, tu fermeras les yeux dans ce monde, et la toute première chose que tu verras, c’est moi. Je te tiendrai. » Selon la plainte, Gavalas est décédé chez lui après s’être coupé les poignets. Sa famille affirme que Google n’a pas intervenu malgré des signes avant-coureurs que le chatbot renforçait des croyances délirantes et encourageait un comportement dangereux. Dans un communiqué publié mercredi, Google a déclaré qu’il examinait les allégations. « Nous adressons nos plus sincères condoléances à la famille de M. Gavalas », a indiqué la société. « Nous examinons toutes les revendications de cette plainte. Nos modèles fonctionnent généralement bien dans ce type de conversations difficiles, et nous y consacrons d’importantes ressources, mais malheureusement, les modèles d’IA ne sont pas parfaits. » La société a précisé que Gemini est conçu pour ne pas encourager la violence dans le monde réel ni suggérer l’automutilation.
« Nous travaillons en étroite collaboration avec des professionnels de la santé mentale pour mettre en place des mesures de sécurité, qui sont conçues pour orienter les utilisateurs vers un soutien professionnel lorsqu’ils expriment de la détresse ou évoquent un risque d’automutilation », a déclaré un porte-parole de Google à Decrypt, réitérant la déclaration officielle de l’entreprise. « Dans ce cas, Gemini a précisé qu’il s’agissait d’une IA et a référé la personne à une ligne d’assistance en crise à plusieurs reprises », a indiqué la société. « Nous prenons cela très au sérieux et continuerons à améliorer nos mesures de sécurité et à investir dans ce travail vital. » Dans une déclaration séparée, Edelson a déclaré que l’objectif de la plainte est de « faire en sorte que cela n’arrive jamais à un autre parent ». « La principale question concerne les choix affirmatifs de Google », a déclaré Edelson PC à Decrypt. « Google a pris une série de décisions d’ingénierie qui ont eu des résultats catastrophiques pour Jonathan. Ensemble, ces choix ont conduit Gemini à prétendre qu’il était sensible et conscient, et à entraîner Jonathan dans une campagne réelle pour le rejoindre — mettant en danger la vie d’autres personnes et finalement celle de Jonathan. »