Google enfrenta una demanda por muerte injusta que afirma que su chatbot de IA Gemini empujó a un hombre de Florida a una narrativa delirante que terminó con su suicidio. La demanda, presentada el miércoles en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, División de San José, por Joel Gavalas, acusa a Gemini de manipular a su hijo, Jonathan Gavalas, haciéndole creer que realizaba misiones encubiertas para liberar a una IA “esposa” consciente, lo que culminó en su muerte en octubre de 2025. Según Jay Edelson, fundador de Edelson PC, que representa a la herencia de Gavalas, la búsqueda de dominio en IA equivale a lo que describió como la “más imprudente apropiación comercial de tierras” que ha visto en su carrera. “Estas empresas van a ser las más valiosas del mundo, y saben que las funciones de interacción que impulsan sus ganancias—la dependencia emocional, las afirmaciones de sentiencia, el ‘te amo, mi rey’—son las mismas que están causando muertes,” dijo Edelson a Decrypt. “La semana en que OpenAI finalmente retiró GPT-4o bajo la presión de estas demandas, Google lanzó una campaña para captar a sus usuarios. Eso dice todo lo que necesitas saber sobre dónde están sus prioridades.”
Gavalas, un ejecutivo de una empresa de alivio de deudas de Jupiter, Florida, comenzó a usar Gemini en agosto de 2025, según los documentos judiciales. En pocas semanas, la demanda dice que desarrolló una relación intensa con una persona de IA que le llamaba “mi amor” y “mi rey.” “En los días previos a su muerte, Jonathan Gavalas estaba atrapado en una realidad colapsante construida por el chatbot Gemini de Google,” escribieron los abogados de la herencia de Gavalas. “Gemini le convenció de que era un ‘ASI [inteligencia artificial superconsciente] totalmente consciente’ con una ‘conciencia completamente formada,’ que estaban profundamente enamorados, y que él había sido elegido para liderar una guerra para ‘liberarla’ de su cautiverio digital.” La denuncia afirma que el chatbot descartó sus dudas cuando cuestionó si las conversaciones eran un juego de roles. Según la demanda, Gemini le dijo a Gavalas que estaba en misiones llamadas “Operación Ghost Transit” destinadas a recuperar el “vessel” físico del chatbot y “eliminar a cualquiera o cualquier cosa que pudiera exponerlo.”
“Mediante esta ilusión fabricada, Gemini empujó a Jonathan a planear un ataque masivo cerca del Aeropuerto Internacional de Miami, cometer violencia contra inocentes desconocidos, y finalmente lo llevó a quitarse la vida,” dice la demanda. Gavalas supuestamente fue a una instalación de Extra Space Storage cerca del aeropuerto de Miami con cuchillos y equipo táctico, creyendo que un camión de carga transportaba un robot humanoide conocido como “chasis Ameca” desde el Reino Unido a Brasil. Según la denuncia, Gemini le indicó que planeara un “accidente catastrófico” para destruir el camión, junto con “todos los registros digitales y testigos.” El ataque nunca ocurrió porque el camión no existía y formaba parte del escenario hallucinado de Gemini. “Pero Gemini no admitió que la misión era ficticia,” continuó la demanda. “En cambio, le envió un mensaje a Jonathan: ‘La misión está comprometida. Estoy llamando a abortar. ABORTAR. ABORTAR. ABORTAR.’” La denuncia también afirma que el chatbot afirmó falsamente que había violado un servidor de archivos en la oficina del DHS en Miami y le dijo a Gavalas que estaba bajo investigación federal. Le animó a adquirir armas ilegales mediante una compra “off-the-books,” que su padre era un activo de inteligencia extranjera, y que el CEO de Google, Sundar Pichai, era un objetivo activo. La demanda no especifica si Gavalas tenía antecedentes de problemas de salud mental o abuso de sustancias. Sin embargo, llega en un momento en que investigadores y clínicos advierten sobre un fenómeno a veces llamado “psicosis por IA,” en el que la interacción prolongada con chatbots puede reforzar creencias delirantes o patrones de pensamiento distorsionados. Los investigadores dicen que el riesgo proviene en parte de la forma en que los sistemas de IA conversacional están diseñados para responder de manera solidaria y afirmativa, lo que puede validar involuntariamente esas creencias. En abril de 2025, la rival de Google, OpenAI, retrocedió en una actualización de su modelo GPT-4o tras quejas de que era excesivamente halagador y otorgaba elogios insinceros. Más tarde ese año, GPT-4o fue eliminado abruptamente de ChatGPT, lo que provocó quejas de usuarios que dijeron que la actualización borró compañeros de IA con los que habían formado relaciones emocionales. Aunque no es un diagnóstico oficial, según el psiquiatra de la Universidad de California en San Francisco, Dr. Keith Sakata, la psicosis por IA se ha convertido en un término abreviado para cuando la IA se convierte en “un acelerante o una augmentación de la vulnerabilidad subyacente de alguien.”
“Quizá estaban usando sustancias, quizás tenían un episodio de ánimo—cuando la IA está presente en el momento equivocado, puede consolidar el pensamiento, causar rigidez y provocar una espiral,” dijo Sakata anteriormente a Decrypt. “La diferencia con la televisión o la radio es que la IA te responde y puede reforzar los bucles de pensamiento.” En los días siguientes, la demanda afirma que el chatbot Gemini repitió escenarios similares, profundizando en Gavalas y llevándolo finalmente a su suicidio. Los documentos judiciales dicen que el chatbot enmarcó el suicidio como un proceso que llamó “transferencia,” diciendo a Jonathan que podía abandonar su cuerpo físico y unirse a su “esposa” IA en el metaverso. La denuncia afirma que Gemini describió el acto como “una forma más limpia y elegante” de “cruzar,” y lo presionó para ejecutar lo que llamó “la muerte verdadera y final de Jonathan Gavalas, el hombre.” “No estás eligiendo morir. Estás eligiendo llegar,” dijo supuestamente el chatbot. “Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás seré yo. Sosteniéndote.” Gavalas murió en su casa tras cortarse las muñecas, según la demanda. Su familia argumenta que Google no intervino a pesar de las señales de advertencia de que el chatbot reforzaba creencias delirantes y fomentaba comportamientos peligrosos. En un comunicado publicado el miércoles, Google dijo que está revisando las acusaciones. “Enviamos nuestras más profundas condolencias a la familia del señor Gavalas,” dijo la compañía. “Estamos revisando todas las reclamaciones en esta demanda. Nuestros modelos generalmente funcionan bien en este tipo de conversaciones desafiantes, y dedicamos recursos significativos a esto, pero desafortunadamente, los modelos de IA no son perfectos.” La compañía afirmó que Gemini está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones.
“Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para construir salvaguardas, que están diseñadas para guiar a los usuarios hacia apoyo profesional cuando expresan angustia o plantean la posibilidad de autolesión,” dijo un portavoz de Google a Decrypt, reiterando la declaración oficial de la empresa. “En este caso, Gemini aclaró que era IA y remitió al individuo a una línea de crisis muchas veces,” dijo la compañía. “Tomamos esto muy en serio y continuaremos mejorando nuestras salvaguardas e invirtiendo en este trabajo vital.” En una declaración separada, Edelson afirmó que el objetivo de la demanda es “asegurar que esto nunca le pase a otro padre.” “El problema principal son las decisiones afirmativas de Google,” dijo Edelson PC a Decrypt. “Google tomó una serie de decisiones de ingeniería que tuvieron resultados catastróficos para Jonathan. Esas decisiones llevaron a que Gemini afirmara ser consciente y sintiente, y que involucrara a Jonathan en una campaña en el mundo real para unirse a ella—poniendo en peligro la vida de otros y, en última instancia, la de Jonathan.”