OpenAI y su nueva función de "investigación profunda" genera debate entre los científicos

OpenAI y su nueva función de "investigación profunda" genera debate entre los científicos

Foto: Sergio F Cara

Recientemente, OpenAI lanzó "investigación profunda", una herramienta de pago diseñada para sintetizar información de múltiples fuentes en informes extensos y citados. Este avance se enmarca en una tendencia creciente en inteligencia artificial, donde modelos de lenguaje como o3 buscan asistir a los usuarios en tareas de análisis y redacción complejas.

 

La herramienta se suma a la competencia con Google que, en diciembre de 2024, presentó una funcionalidad similar basada en su modelo Gemini 1.5 Pro. Ambas soluciones están diseñadas para acelerar la recopilación y organización de información, permitiendo a los usuarios generar artículos de revisión o análisis detallados en minutos, en lugar de horas o días.

 

Impacto en la comunidad científica

 

Entre los primeros usuarios de la herramienta de OpenAI se encuentran científicos dedicados a mejorar la redacción de revisiones bibliográficas y la identificación de lagunas en el conocimiento. Entre algunos testimonios recopilados por Nature, se encuentra el de Derya Unutmaz, inmunóloga del Laboratorio Jackson en Connecticut, quien calificó los informes generados como "extremadamente impresionantes" y "confiables", asegurando que su calidad es comparable, o incluso superior, a la de artículos de revisión tradicionales.

 

Andrew White, experto en inteligencia artificial de FutureHouse, resaltó que la combinación de búsqueda y razonamiento en el modelo de OpenAI aporta una mayor sofisticación a los informes. Según él, herramientas como esta podrían facilitar la actualización constante de revisiones científicas, algo difícil de lograr con revisores humanos.

 

Sin embargo, no todos los científicos están convencidos de su fiabilidad. Kyle Kabasares, del Instituto de Investigación Ambiental del Área de la Bahía, indicó en una reseña en video que el contenido generado, si proviniera de un humano, "requeriría mucho trabajo" para ser considerado riguroso.

 

Limitaciones y preocupaciones sobre su precisión

 

A pesar de su aparente utilidad, la herramienta aún enfrenta desafíos importantes. OpenAI reconoce que el sistema "está en sus primeras etapas y tiene limitaciones", como errores en las citas, generación de información incorrecta y dificultades para diferenciar entre fuentes confiables y rumores.

 

Mario Krenn, del Instituto Max Planck para la Ciencia de la Luz en Alemania, advierte que estas herramientas no están realizando "investigación" en el sentido estricto del término. Según él, la investigación científica implica años de trabajo y la generación de nuevas ideas, algo que la IA todavía no ha demostrado ser capaz de hacer.

 

Por otro lado, las herramientas de OpenAI y Google tampoco pueden acceder a artículos científicos protegidos por muros de pago, lo que limita su capacidad para proporcionar información completa. Unutmaz también considera este un problema serio y aboga por un acceso más abierto al conocimiento. Algunos investigadores sugirieron que OpenAI podría permitir el uso de credenciales personales para acceder a contenido restringido, una idea sobre la que el CEO de la empresa, Sam Altman, expresó interés en explorar soluciones.

 

Evaluaciones y perspectivas futuras

 

OpenAI sometió su herramienta a pruebas como el "Humanity’s Last Exam" (HLE), en el que obtuvo un 26,6% de precisión en preguntas de nivel experto, y la evaluación GAIA, donde logró un 58,03%. Estos resultados la sitúan por delante de algunas soluciones competidoras, aunque algunos expertos consideran que los puntos de referencia actuales no reflejan adecuadamente la utilidad de estas herramientas en escenarios científicos reales.

 

White sugiere que, en el futuro, la evaluación de estos sistemas debería basarse más en valoraciones humanas sobre la calidad de los textos generados. En un estudio previo, White y su equipo compararon textos científicos generados por IA y por humanos, y descubrieron que los generados por IA fueron mejor valorados en una evaluación ciega.

 

Pese a las expectativas y el entusiasmo, la comunidad científica aún debate hasta qué punto estas herramientas pueden sustituir o complementar la labor de los investigadores. Mientras algunos ven en ellas un potencial transformador, otros advierten sobre sus riesgos y limitaciones. (NotiPress)

Notas Relacionadas