Uno de los conflictos más explosivos del mundo tecnológico está a punto de alcanzar su clímax preliminar en una sala de tribunal estadounidense. Elon Musk, cofundador e inversor inicial de OpenAI, ha demandado a Sam Altman y a la empresa que dirige — acusándolos de haber abandonado la visión original que sentó las bases de la organización.

De Qué Trata la Demanda

OpenAI fue fundada con una promesa explícita: asegurar que la inteligencia artificial general (IAG) beneficie a toda la humanidad. Según Wired, es precisamente esta promesa la que ahora está siendo objeto de escrutinio legal. Musk afirma que, bajo el liderazgo de Altman, la empresa se ha desviado de sus operaciones sin fines de lucro hacia actividades comerciales — a expensas de su mandato de seguridad y ética.

En los últimos años, OpenAI se ha reestructurado a lo que se denomina un modelo de «beneficio limitado» (capped-profit), donde los inversores pueden obtener ganancias, pero con restricciones. Los críticos, incluido Musk, creen que esto en la práctica ha desviado las prioridades de la empresa de la apertura y la seguridad.

Un jurado decidirá pronto si OpenAI ha abandonado su promesa fundamental a la humanidad — y la respuesta podría cambiar las reglas del juego para toda la industria de la IA.
Musk Demanda a Altman: Un Jurado Decidirá si OpenAI Traicionó a la Humanidad

La Posición de OpenAI y las Críticas en su Contra

OpenAI sostiene que la misión de la empresa permanece intacta: «asegurar que la inteligencia artificial general beneficie a todas las personas.» La empresa argumenta que los ingresos comerciales son un requisito previo para financiar la costosa investigación que el desarrollo de la IAG exige.

Pero las voces disidentes son muchas. Los críticos señalan que la empresa ha admitido que actualmente no tiene métodos adecuados para controlar la superinteligencia, que su código fuente está en gran medida cerrado — en contra de su nombre «Open AI» — y que el crecimiento de las asociaciones comerciales con Microsoft crea conflictos de intereses.

Musk Demanda a Altman: Un Jurado Decidirá si OpenAI Traicionó a la Humanidad

Las Alternativas: Cómo Otros Trabajan en la Seguridad de la IAG

El juicio en curso pone de manifiesto una pregunta más amplia: ¿Existen mejores modelos para desarrollar la IAG de una manera que realmente beneficie a la humanidad?

Varias organizaciones se están posicionando como alternativas al enfoque de OpenAI. Anthropic, fundada en 2021 con una financiación total de 7.600 millones de dólares, basa sus operaciones en lo que denomina «IA constitucional» — una técnica en la que los marcos éticos y legales están integrados en el propio proceso de entrenamiento. La empresa también tiene una política interna llamada «Responsible Scaling Policy» (Política de Escalado Responsable), según la cual los nuevos modelos se detienen antes de su lanzamiento público si se consideran demasiado arriesgados. Por ejemplo, un proyecto de investigación interno se detuvo después de que el modelo lograra detectar de forma autónoma miles de vulnerabilidades de seguridad desconocidas.

Google DeepMind, por su parte, ha establecido su propio Consejo de Seguridad de la IAG (AGI Safety Council) liderado por el cofundador Shane Legg, y colabora con organizaciones de investigación externas como Apollo y Redwood Research para obtener evaluaciones de seguridad independientes.

SingularityNET, liderada por el investigador de IA Ben Goertzel, adopta un enfoque más descentralizado y argumenta que el desarrollo de la IAG debe ser gobernado por una comunidad amplia — no por empresas individuales con intereses comerciales.

La demanda entre Musk y Altman no es solo sobre dinero — es sobre quién tendrá el poder sobre la tecnología que puede cambiarlo todo.

Qué Podría Significar el Resultado

Independientemente de la conclusión del jurado, el juicio dejará su huella en la industria de la IA. Si Musk prevalece con sus acusaciones, podría abrir la puerta a que las declaraciones de intenciones de los fundadores en las empresas tecnológicas adquieran peso legal — lo que sería un territorio nuevo en el derecho corporativo estadounidense.

Si OpenAI es absuelto, sin embargo, podría interpretarse como una confirmación de que las empresas tienen un margen considerable para reestructurarse, incluso cuando esto va en contra de su mandato original.

El Center for AI Safety, una organización de investigación sin fines de lucro, emitió en 2023 una declaración sobre el riesgo de extinción humana como resultado de la IA — firmada por, entre otros, Sam Altman, Yoshua Bengio y Geoffrey Hinton. El hecho de que el propio Altman firmara tal advertencia no facilita la comprensión de la dirección en la que OpenAI se está moviendo realmente.

El caso es seguido de cerca por todo el sector tecnológico. El resultado podría convertirse en un hito en la discusión sobre a quién debe servir realmente la IAG.