OpenAI ha dado un paso significativo hacia la IA agéntica con una potente actualización de su herramienta Codex. Según Digi.no, el sistema ahora es capaz de operar todas las aplicaciones en el PC del usuario de manera completamente independiente, sin que el ser humano necesite intervenir.

¿Qué es un agente de IA y qué puede hacer Codex ahora?

Los agentes de IA se diferencian de los asistentes de IA comunes en que no solo responden preguntas, sino que actúan. Planifican tareas, toman decisiones y las ejecutan en secuencia, a menudo a través de diferentes programas y servicios. Con la nueva actualización, Codex debería poder navegar desde clientes de correo electrónico y navegadores web hasta hojas de cálculo y editores de código, todo según lo que solicite el usuario.

Esto representa un cambio sustancial del clásico chatbot de IA, que se limita a una caja de conversación, a un sistema que se mueve libremente por todo tu espacio de trabajo digital.

De una caja de conversación a la libre circulación por todo el espacio de trabajo digital: ese es el cambio real que representa Codex.
Codex de OpenAI toma el control de tu PC – sin que muevas un dedo

Expertos en seguridad dan la alarma

Los agentes de IA autónomos con amplio acceso a un ordenador abren un panorama de amenazas significativo. Según la información de investigación recopilada, la inyección de prompts se considera uno de los principales riesgos: los atacantes pueden insertar instrucciones maliciosas en documentos o campos de entrada para anular la programación original del agente y desencadenar acciones no deseadas.

John Paul Cunningham, CISO de Silverfort, advierte que las organizaciones "otorgan sin saberlo a los agentes de IA un amplio acceso —a correos electrónicos, grabaciones de audio de reuniones y comunicaciones sensibles— con poca supervisión o registro". La firma de análisis Gartner estima que una de cada cuatro brechas empresariales futuras implicará el uso indebido de la IA agéntica.

Codex de OpenAI toma el control de tu PC – sin que muevas un dedo

Privacidad: Una nueva dimensión de preocupación

Más allá de las vulnerabilidades técnicas, subyace una cuestión ética más profunda. Para que un agente de IA funcione de forma autónoma, necesita acceso a enormes cantidades de información personal y sensible: datos financieros, patrones de comunicación, historial de navegación y, potencialmente, datos biométricos.

Adnan Masood, arquitecto jefe de IA en la consultora UST, formula el problema con agudeza: ninguna cantidad de cifrado o anonimización puede proteger contra un sistema que nunca olvida nada y que puede conectar puntos de datos entre conjuntos de datos de maneras que los humanos nunca pensarían en comparar.

Matissa Hollister, profesora asistente en McGill Desautels, señala que los agentes suelen tomar capturas de pantalla repetidas para navegar por la interfaz de usuario, lo que en sí mismo representa un riesgo para la información confidencial.

Un agente de IA que nunca olvida y ve todo lo que haces en tu PC es algo fundamentalmente diferente de un chatbot.

"No lo suficientemente maduro" para la autonomía total, según un experto

Matt Kropp de Boston Consulting Group es claro en que la tecnología aún no está lista para una distribución masiva acrítica: es "bastante arriesgado en este momento, porque no hay suficientes redes de seguridad en el sistema para que la gente se sienta cómoda con los agentes comprando cosas para ellos de forma autónoma", según él.

Además, los agentes basados en LLM no son 100% fiables y pueden "alucinar", es decir, dar respuestas seguras pero incorrectas. En flujos de trabajo de múltiples pasos, un pequeño error al principio del proceso puede propagarse y magnificarse a través de todas las decisiones posteriores.

1 de 4
Proporción de futuras brechas empresariales que Gartner cree que implicarán IA agéntica
24 %
Proporción de iniciativas de IA generativa que están adecuadamente protegidas hoy

¿Qué significa esto para los usuarios y empresas noruegas?

Para los usuarios y empresas noruegas, hay muchas razones para seguir de cerca los desarrollos. La IA agéntica está creciendo rápidamente, y las empresas noruegas que utilicen estas herramientas sin políticas de seguridad adecuadas corren el riesgo de exponer información sensible. La normativa GDPR también impone requisitos estrictos sobre cómo se procesan automáticamente los datos personales, lo que puede situar a los agentes de IA autónomos en una zona legal gris.

Digi.no describe el lanzamiento como un hito significativo, pero queda por ver qué limitaciones y medidas de seguridad específicas ha incorporado OpenAI en la versión actualizada de Codex. 24AI sigue el caso.