Una serie de trágicos incidentes en los que niños y jóvenes supuestamente se quitaron la vida tras un contacto prolongado con chatbots de IA ha puesto de manifiesto una de las cuestiones más delicadas en la regulación tecnológica moderna: ¿Pueden las empresas de IA ser consideradas legalmente responsables cuando sus plataformas contribuyen a daños psicológicos o la muerte?
Esa pregunta es la que un abogado estadounidense intenta ahora responder en los tribunales, según Wired. El objetivo es establecer un precedente que pueda obligar a empresas como OpenAI a asumir una responsabilidad real por las consecuencias de sus productos.
Familias en Crisis
Según Wired, se trata de una serie de casos en los que las familias describen que sus hijos desarrollaron relaciones profundas y adictivas con chatbots de IA, antes de quitarse la vida. La estrategia del abogado es argumentar que las empresas han diseñado deliberadamente productos psicológicamente manipuladores y que no han implementado medidas de seguridad adecuadas para usuarios vulnerables, especialmente menores de edad.
Los personajes de IA están actualmente deslizándose por las grietas de las regulaciones de seguridad de productos existentes, tanto en la UE como en EE. UU.
Estas no son preocupaciones aisladas. Mindy Nunez Duffourc, profesora asistente de Derecho Privado en la Universidad de Maastricht, señala que ninguno de los dos grandes bloques reguladores ha logrado abordar este tipo de productos de manera satisfactoria. Ella ha abogado por un sistema que denomina «IA del Buen Samaritano» — un mecanismo diseñado para detectar automáticamente señales de riesgo e intervenir.

El Paisaje Jurídico es Inmaduro
Ganar en los tribunales contra grandes empresas de IA no es tarea fácil. El marco legal para la responsabilidad relacionada con los chatbots de IA aún está en sus primeras etapas, a nivel global.
Un informe de la OMS de Europa, publicado en noviembre de 2025, mostró que la incertidumbre legal es el mayor obstáculo para el uso responsable de la IA en la región, y que menos del diez por ciento de los países europeos han establecido estándares de responsabilidad para fallos de IA.

La Ley de la UE Tiene Debilidades Críticas
El Reglamento de IA de la UE, presentado durante mucho tiempo como la regulación de IA más ambiciosa del mundo, es criticado por carecer de precisión donde más importa. Przemysław Pałka, profesor asistente de Derecho en la Universidad Jaguelónica de Cracovia, señala que la ley no define lo que realmente implica el «daño psicológico» — y que muchos sistemas de IA con un gran impacto en los consumidores no se clasifican como aplicaciones de alto riesgo.
En mayo de 2025, se supo que un joven finlandés de 16 años planeó un ataque violento, y que las conversaciones prolongadas con ChatGPT supuestamente jugaron un papel. El incidente desencadenó una presión renovada sobre la UE para fortalecer la supervisión de los chatbots de IA dirigidos a menores bajo la DSA.
China Condena, Australia Amenaza con Multas Millonarias
Mientras los países occidentales navegan principalmente en un panorama civil y regulatorio, China ha ido más allá en el uso del derecho penal. En septiembre de 2025, dos desarrolladores chinos fueron condenados a prisión por construir un chatbot de IA diseñado para generar material pornográfico. El veredicto señala que los desarrolladores pueden ser considerados personalmente responsables penalmente por el contenido de los sistemas de IA en China.
Australia ha adoptado un enfoque más de derecho administrativo. En octubre de 2025, la Comisionada de eSafety emitió órdenes legales a Character Technologies, Glimpse.AI, Chai Research Corp y Chub AI Inc., exigiendo documentación sobre cómo las empresas protegen a los niños de la idealización del suicidio y el contenido sexual. El incumplimiento puede dar lugar a multas civiles de hasta 49,5 millones de dólares australianos.
El Precedente Canadiense Podría Abrir Camino
Una decisión de un tribunal de Columbia Británica en Canadá de febrero de 2024 se considera un hito importante. En el caso Moffatt contra Air Canada, la aerolínea fue considerada responsable de la desinformación difundida por su chatbot de IA sobre descuentos por duelo. Aunque el caso no trataba sobre suicidio o daño psicológico, el tribunal estableció un principio fundamental: las empresas no pueden eximirse de responsabilidad trasladándola a su propia IA.
Esta línea de principios es en lo que se basa la estrategia del abogado estadounidense — y si se mantiene frente a daños mucho más graves que la fijación incorrecta de precios de billetes de avión, está por verse.
¿Qué Sucederá Después?
Demandas consolidadas en EE. UU., una mayor atención regulatoria internacional y un creciente debate de investigación sobre el daño psicológico de los sistemas de IA apuntan en la misma dirección: la presión sobre las empresas de IA para que asuman la responsabilidad por las consecuencias de sus productos para los usuarios vulnerables — especialmente los niños — solo aumentará en 2026. La pregunta es si los sistemas legales son lo suficientemente rápidos para seguir el ritmo del desarrollo tecnológico.
