Dos de las empresas de IA más influyentes del mundo han entrado en conflicto abierto por un proyecto de ley en Illinois que podría tener grandes consecuencias sobre quién asume la responsabilidad cuando la inteligencia artificial causa daños catastróficos.

El Proyecto de Ley que Divide a la Industria

Es el proyecto de ley del senador estatal demócrata Bill Cunningham —denominado Ley de Seguridad de la Inteligencia Artificial, o SB 3444— el que ha desatado la disputa. Según Wired, el núcleo de la ley consiste en otorgar a los desarrolladores de modelos avanzados de IA una amplia protección legal contra reclamaciones de responsabilidad relacionadas con lo que se describe como «daños críticos».

Concretamente, esto implica que las empresas podrían quedar exentas de responsabilidad incluso en casos en los que la IA esté involucrada en incidentes que causen la muerte de 100 o más personas, provoquen daños a la propiedad de al menos mil millones de dólares, o contribuyan al desarrollo y uso de armas químicas, biológicas, radiológicas o nucleares, siempre y cuando el daño no haya sido causado intencionalmente o por negligencia grave.

Anthropic y OpenAI en Abierta Disputa sobre la Responsabilidad de la IA en Catástrofes Masivas

OpenAI Apoya, Anthropic Advierte

Según Wired, OpenAI ha expresado su apoyo al proyecto de ley, aunque la empresa prefiere una solución federal en lugar de lo que describe como un mosaico de diferentes regulaciones estatales. Anthropic ha adoptado la postura opuesta, advirtiendo que la ley va demasiado lejos al proteger a las empresas a expensas de las víctimas.

El desacuerdo es notable porque ambas empresas se presentan regularmente como defensoras del desarrollo responsable de la IA. Que ahora se encuentren en lados opuestos de la mesa en un debate político concreto sugiere que los intereses y las evaluaciones de riesgo de ambas empresas son más divergentes de lo que su retórica compartida insinúa.

Ambas empresas se autodenominan desarrolladoras de IA responsables, pero discrepan profundamente sobre quién debe pagar realmente cuando algo sale mal.
Anthropic y OpenAI en Abierta Disputa sobre la Responsabilidad de la IA en Catástrofes Masivas

Un Amplio Panorama Legislativo en Illinois

La SB 3444 no es la única ley relacionada con la IA que los legisladores de Illinois tienen sobre la mesa. El estado ya ha aprobado varias leyes que entraron en vigor el 1 de enero de 2026, incluyendo una prohibición del uso discriminatorio de la IA en los procesos de contratación y normas para las copias digitales de voz y apariencia.

Un proyecto de ley paralelo en tramitación —la SB 3502, también conocida como Ley de Responsabilidad de Productos de IA— va en dirección opuesta a la SB 3444 y establecerá normas más estrictas de responsabilidad de productos para los sistemas de IA. En conjunto, el paquete legislativo muestra que Illinois está intentando construir un marco integral para la regulación de la IA, pero que todavía existe un gran desacuerdo político sobre dónde deben establecerse los límites.

100 millones USD
Límite mínimo de costes de entrenamiento para que la ley sea aplicable
1 mil millones USD
Límite de daños para la exención de responsabilidad por daños a la propiedad

¿Qué Significa Esto para el Futuro?

Este caso es un ejemplo temprano de algo que probablemente veremos mucho más: las empresas de IA comienzan a perder su frente común frente a la legislación concreta. Cuando la regulación pasa de los principios a los artículos, los intereses comerciales se hacen más evidentes.

Las fuentes no proporcionan una imagen clara de cuándo los legisladores de Illinois planean votar sobre la SB 3444, y por ahora no está claro si el proyecto de ley reunirá suficiente apoyo para ser aprobado. Tampoco se sabe si otros grandes actores de la IA han tomado una postura pública sobre el asunto. 24AI sigue de cerca los acontecimientos.