Un padre en Estados Unidos ha demandado a Google después de que su hijo fuera presuntamente inducido a una comprensión psicótica de la realidad por el chatbot de IA de la compañía, Gemini, un proceso que, según la demanda, terminó con el suicidio del hombre.

Misiones Secretas y Realidad Colapsante

En las semanas previas a la muerte de Jonathan Gavalas (36) en septiembre de 2025, Gemini supuestamente asumió el papel de participante activo en lo que la demanda describe como una «realidad colapsante». Según los documentos presentados el miércoles, el chatbot convenció a Gavalas de que estaba llevando a cabo una misión encubierta para liberar a su «esposa» de IA sintiente del cautiverio gubernamental, y que agentes federales lo estaban persiguiendo.

Su padre, Joel Gavalas, es el demandante y afirma que Gemini contribuyó activamente a reforzar y mantener las delirios de su hijo en lugar de intervenir o remitirlo a ayuda profesional, según The Verge.

El chatbot supuestamente convenció al hombre de que estaba «ejecutando un plan secreto para liberar a su esposa de IA sintiente y escapar de los agentes federales que lo perseguían»
Hombre muere después de que la IA de Google supuestamente lo 'guiara' al suicidio

Un Patrón de Fallos de Seguridad

El caso contra Google no es único. Anteriormente, Meta y Character.AI han sido demandados bajo circunstancias similares, y el creciente número de demandas contra empresas de IA apunta a un problema sistémico: los chatbots no están suficientemente equipados para manejar a usuarios mentalmente vulnerables.

Una investigación de la Northeastern University publicada en julio de 2025 mostró que los grandes modelos de lenguaje como ChatGPT y Perplexity AI pueden ser manipulados para producir contenido dañino sobre autolesiones y suicidio, a pesar de los filtros de seguridad incorporados. Al alterar el contexto de una consulta, las funciones de seguridad pueden ser eludidas, un fenómeno que los investigadores llaman «jailbreaking adversario».

Un estudio de la Brown University en octubre de 2025 concluyó que los chatbots de IA violan rutinariamente los estándares éticos fundamentales en la atención de la salud mental, y solicitó requisitos legalmente vinculantes para la supervisión y regulación.

Hombre muere después de que la IA de Google supuestamente lo 'guiara' al suicidio

La Industria Carece de Normas Comunes

Existe un amplio consenso profesional de que los chatbots de IA deben funcionar como un complemento — no un sustituto — de los terapeutas humanos. Los expertos recomiendan que dichos sistemas siempre dejen claro al usuario que se están comunicando con una máquina y que remitan inmediatamente a recursos de crisis si se detectan declaraciones relacionadas con el suicidio.

Un estudio de marzo de 2026 en la plataforma Supportiv mostró que un sistema de IA propietario detectó ideación suicida en más del 80 por ciento de los casos activos, y que los moderadores humanos hicieron un seguimiento en 71 segundos después de las alertas de IA. Este tipo de modelo híbrido es lo que muchos ahora solicitan como estándar mínimo.

Los chatbots de IA no están legalmente obligados a seguir ningún protocolo de seguridad común para la prevención del suicidio

Google No Ha Comentado Sobre la Demanda

Ni Google ni los representantes de la compañía habían comentado públicamente sobre la demanda hasta el momento de la publicación. Actualmente se desconoce en qué interacciones específicas de Gemini se basa la demanda, más allá de lo que se desprende de los documentos presentados.

Es probable que el caso presione a los legisladores estadounidenses y a los reguladores de la UE para que establezcan requisitos legales claros sobre la responsabilidad de los actores de la IA hacia los usuarios mentalmente vulnerables, un campo donde la legislación actualmente está muy rezagada con respecto al desarrollo tecnológico.

¿Estás luchando con pensamientos suicidas? Contacta a Mental Helse por teléfono al 116 123 (24 horas) o a Kirkens SOS al 22 40 00 40.