OpenAI se ha fijado un ambicioso nuevo objetivo: desarrollar un investigador de IA completamente automatizado —un sistema basado en agentes diseñado para abordar desafíos científicos grandes y complejos sin necesidad de una dirección humana continua. Así lo informa MIT Technology Review.

Un Nuevo Proyecto de Gran Envergadura para OpenAI

Esta iniciativa representa una escalada significativa con respecto a las herramientas de IA actuales, que en su mayoría funcionan como asistentes para investigadores humanos. Lo que OpenAI busca ahora es un sistema que pueda planificar, llevar a cabo e interpretar activamente la investigación por sí mismo, desde la generación de hipótesis hasta el análisis y la conclusión.

Los detalles sobre la arquitectura y el cronograma del sistema son escasos por el momento, pero la compañía, según MIT Technology Review, ha presentado esto como una ambición central en su desarrollo continuo de sistemas basados en agentes.

«Los Grandes Modelos de Lenguaje son la caja de Pandora para la investigación académica. Pueden eliminar la independencia académica, la creatividad y el pensamiento independiente, pero también pueden permitir una cocreación y productividad inimaginables.» — Profesor Julian Savulescu, The Uehiro Oxford Institute
OpenAI busca reemplazar al investigador con automatización total de IA

Surgen Cuestiones Éticas

Los expertos están lejos de ser unánimes en su evaluación de lo que implicará la investigación automatizada con IA. Según la investigación disponible en el campo, existen una serie de problemas éticos graves que aún no se han resuelto.

Un punto central es lo que se describe como una «brecha de responsabilidad»: cuando un sistema de IA comete errores, produce resultados sesgados o fabrica información, no está claro quién asume la responsabilidad legal y moral. En la investigación médica, las consecuencias de tales errores pueden ser graves.

Además, existe el riesgo de que los sesgos existentes en los datos de entrenamiento se amplifiquen y se reflejen en los resultados de la investigación. La falta de transparencia sobre cómo los modelos toman decisiones —el llamado problema de la «caja negra»— dificulta la verificación de los hallazgos.

El profesor Timo Minssen de la Universidad de Copenhague subraya que las directrices éticas son «absolutamente necesarias para dar forma al uso ético de la IA en la investigación académica».

OpenAI busca reemplazar al investigador con automatización total de IA

¿Quién Perderá su Empleo?

La cuestión del desplazamiento laboral es más matizada de lo que muchos temen, pero eso no significa que todos sean igualmente vulnerables. Un documento de trabajo de Stanford de agosto de 2025 encontró que los trabajadores al principio de su carrera, de entre 22 y 25 años, en profesiones con alta exposición a la IA, experimentaron una disminución del 13 por ciento en el empleo en comparación con profesiones menos expuestas, medido entre finales de 2022 y julio de 2025.

La tendencia dominante parece ser la transformación laboral más que la desaparición completa de puestos de trabajo. La investigación sugiere que aproximadamente 12 millones de empleos en EE. UU. —equivalente al 7,8 por ciento de la fuerza laboral— se realizan actualmente con al menos un 50 por ciento de uso de IA generativa.

13%
Disminución del empleo para jóvenes en profesiones expuestas a la IA
7,8%
Porcentaje del mercado laboral estadounidense donde más de la mitad del trabajo se realiza con IA generativa

Los analistas, sin embargo, señalan que pueden surgir nuevos roles —como los «expertos en validación de IA»— para garantizar la calidad de la investigación generada por IA y mantener los estándares éticos.

Un Riesgo de Competencia para Futuros Investigadores

La automatización de tareas de investigación rutinarias podría debilitar la formación de futuros científicos

Una preocupación que se destaca en los círculos de investigación es que la automatización de tareas de investigación básicas podría socavar la formación de nuevas generaciones de investigadores. Cuando las habilidades metodológicas fundamentales son reemplazadas por sistemas de IA, se corre el riesgo de que estas habilidades ya no se desarrollen en los jóvenes profesionales.

Actualmente no está claro en qué medida la nueva iniciativa de OpenAI abordará estos desafíos, o si la empresa prioriza la entrega de capacidad tecnológica primero y los marcos regulatorios y éticos después.