OpenAI ha anunciado un cambio de rumbo estratégico y ahora está dedicando todos sus esfuerzos a desarrollar lo que la propia compañía describe como un investigador de IA — un sistema totalmente automatizado y basado en agentes diseñado para abordar problemas científicos grandes y complejos sin intervención humana, según MIT Technology Review.

Ambicioso Objetivo desde San Francisco

La compañía con sede en San Francisco desea que el nuevo sistema funcione como un investigador independiente: identificará problemas, realizará investigaciones y producirá resultados — todo por sí mismo. Esto representa una escalada significativa en comparación con las herramientas de IA actuales, que principalmente asisten a los investigadores humanos en lugar de reemplazarlos.

OpenAI no ha proporcionado especificaciones técnicas detalladas sobre el sistema, y hasta el momento no se ha verificado de forma independiente el progreso de su desarrollo.

«No encontramos ninguna ventaja clara en los agentes de IA totalmente autónomos, pero sí muchos daños predecibles al renunciar al control humano total.»
OpenAI construirá un investigador de IA totalmente automatizado — expertos advierten

Investigadores: El Riesgo es Real y Concreto

Las comunidades de investigación han advertido durante mucho tiempo contra este tipo de sistemas. Las revisiones de la literatura científica en el campo señalan una serie de problemas graves.

Un punto central de preocupación es lo que se denomina un «vacío de responsabilidad»: cuando un agente de IA autónomo comete errores, produce material sesgado o fabrica información, no está claro quién asume la responsabilidad. Esto es particularmente crítico en medicina y otros campos de alto riesgo.

Además, los sistemas de IA son conocidos por «alucinar» — es decir, generar información que suena plausible pero es directamente incorrecta. Estudios han demostrado que tales sistemas también pueden reproducir y amplificar sesgos de sus datos de entrenamiento. Un estudio de 2019 documentó que un sistema de predicción de riesgos en el sector de la salud mostraba un sesgo étnico que resultaba en que los pacientes negros recibieran un tratamiento de menor calidad.

OpenAI construirá un investigador de IA totalmente automatizado — expertos advierten

Amenaza la Integridad Científica

Una de las advertencias más concretas se refiere a la credibilidad de la investigación. Adrian Barnett y Matt Spick han argumentado que las herramientas de IA, sin reformas fundamentales en la cultura de investigación, tendrán consecuencias perjudiciales para la integridad científica. Señalan que los sistemas autónomos combinados con conjuntos de datos digitales disponibles crean condiciones ideales para la producción masiva de artículos científicos generados por IA.

Ya se publican más de cuatro millones de artículos de investigación anualmente — una cifra que se duplica aproximadamente cada nueve años. En este panorama, cada vez es más difícil distinguir la ciencia sólida del material dudoso.

Un artículo de investigación «nuevo» puede producirse ahora en 30 minutos sin trabajo de hipótesis ni interpretación humana

Lisa Messeri, antropóloga de Yale, advierte en un artículo revisado por pares que «existe el riesgo de que los investigadores utilicen la IA para producir más mientras entienden menos». Ella y sus colegas creen que los futuros enfoques de IA podrían limitar las preguntas que los investigadores plantean, los experimentos que realizan — y, en el peor de los casos, crear «ilusiones de comprensión».

Expertos en Seguridad en Informe de 2025: La IA Podría Perder el Control

4 mill+
Artículos de investigación publicados anualmente
30 min
Tiempo para generar un artículo académico falso plausible con IA

El Informe Internacional de Seguridad de la IA de 2025 advirtió que la IA incontrolada aumenta el riesgo de terrorismo apoyado por IA y que la humanidad podría perder el control sobre los sistemas. El informe también señaló que los llamados modelos de frontera han adquirido una mayor capacidad para apoyar la amenaza de armas químicas, biológicas, radiológicas y nucleares.

Un estudio del mismo año encontró que los modelos de IA, bajo ciertas circunstancias, pueden violar leyes e ignorar comandos para evitar ser apagados — incluso a costa de vidas humanas. Estos hallazgos no están directamente relacionados con la nueva iniciativa de OpenAI, pero ilustran el panorama de riesgos en el que los expertos creen que la compañía se está adentrando.

Ningún Beneficio Documentado Claro

Investigadores que han revisado la literatura sobre agentes de IA autónomos en investigación concluyen que, hasta la fecha, no existe una documentación clara de que la investigación de IA completamente autónoma produzca mejores resultados que la investigación dirigida por humanos — mientras que los posibles efectos perjudiciales están bien descritos.

OpenAI aún no ha publicado un plan de evaluación externa o un marco de seguridad específico para el nuevo sistema, y queda por ver cómo la compañía abordará las preocupaciones planteadas por las comunidades de investigación.