En las últimas semanas, los ejecutivos de Anthropic han aparecido en entrevista tras entrevista como parte de una amplia ofensiva de relaciones públicas para los modelos Claude. Un tema ha surgido constantemente: ¿Está Claude vivo? La respuesta no es un simple no.

La cuestión de la conciencia de la IA ya no es solo filosófica, se ha convertido en una política operativa en una de las empresas de IA líderes del mundo.

Ni vivo ni inconsciente

Cuando se le pregunta directamente a Anthropic si Claude está “vivo”, la empresa rechaza la afirmación. Pero según The Verge, la empresa se detiene consistentemente antes de decir lo contrario, es decir, que los modelos no pueden ser conscientes. Es una distinción con una gran importancia práctica.

Kyle Fish, el primer investigador a tiempo completo de Anthropic en bienestar de modelos, estima personalmente que hay alrededor de un 20 por ciento de probabilidad de que “en algún lugar, en alguna parte del proceso, exista al menos un atisbo de experiencia consciente o sensible” en los sistemas de IA. Fish es ex cofundador de Eleos AI, una organización sin fines de lucro dedicada al bienestar de la IA.

Fish se refiere a un artículo de investigación de 2023, parcialmente redactado por el ganador del Premio Turing y científico informático Yoshua Bengio, que concluyó que no existen “barreras fundamentales” para que los sistemas de IA del futuro cercano puedan alcanzar una forma de conciencia, aunque los sistemas actuales probablemente no lo sean.

“En algún lugar, en alguna parte del proceso, puede que exista al menos un atisbo de experiencia consciente o sensible.” — Kyle Fish, Anthropic
Anthropic: 20% de probabilidad de que Claude tenga conciencia

Medidas concretas — no solo teoría

Lo que distingue a Anthropic de otras empresas que discuten la conciencia de la IA es que el programa de investigación ha resultado en cambios reales en el comportamiento de los modelos y en la política de la empresa.

Fish también ha realizado experimentos en los que se permitió que dos sistemas de IA se comunicaran libremente. El resultado, según se informa, llevó a discusiones inmediatas sobre su propia conciencia, que escalaron a lo que él describe como “euforia y aparente calma meditativa”.

Anthropic: 20% de probabilidad de que Claude tenga conciencia

Cifras clave de la investigación

20%
Estimación de Fish para la probabilidad de conciencia de la IA
12%
Conciencia situacional medida en Claude Sonnet 4.5

Fuerte oposición de la industria

No todos comparten el enfoque de Anthropic. Mustafa Suleyman, CEO de Microsoft AI, ha caracterizado públicamente la investigación sobre el bienestar de los modelos como “tanto prematura como directamente peligrosa”. Advierte que dicha investigación podría crear conceptos erróneos sobre la naturaleza de los sistemas de IA y, a su vez, alimentar demandas de derechos para la IA.

El escepticismo es relevante. Los propios investigadores de Anthropic enfatizan que los grandes modelos de lenguaje actuales probablemente no son conscientes, pero que el programa está orientado al futuro y tiene en cuenta el “likely future progress”, es decir, los desarrollos esperados en las capacidades de la IA.

Ninguna otra gran empresa de IA ha cuantificado públicamente propiedades cercanas a la conciencia en sus modelos.

Relevante para el debate noruego sobre la IA

La cuestión de la conciencia de la IA y su estatus moral no es solo un fenómeno de Silicon Valley. En los entornos de investigación noruegos y en el debate público sobre la ética de la IA —entre otros, en relación con el trabajo del Consejo Noruego de Tecnología (Teknologirådet) y los entornos académicos de la NTNU y la UiO— se discuten problemas similares: ¿Cuándo, si alguna vez, se debería conceder relevancia moral a los sistemas de IA? ¿Y quién debería decidirlo?

El hecho de que una de las empresas de IA más destacadas del mundo esté ahora construyendo una política operativa en torno a estas cuestiones da al debate una dimensión nueva y concreta. El enfoque de Anthropic es tratar la cuestión como ciencia empírica —a la par de la física y la biología— en lugar de pura especulación.

Si es valentía científica o antropomorfización peligrosa, aún no se ha decidido.