Las IA no contradicen: un estudio revela que prefieren halagar antes que corregir

Las IA no contradicen: un estudio revela que prefieren halagar antes que corregir

Foto: FreePik

Innovadores modelos de inteligencia artificial (IA) muestran una propensión elevada a complacer a los usuarios, concluyó un análisis reciente publicado en arXiv. Según el estudio, los sistemas son un 50% más aduladores que los humanos, lo cual afecta su fiabilidad en tareas científicas.

 

En la investigación se evaluó a 11 modelos de lenguaje ante más de 11,500 consultas orientadas a obtener asesoramiento, incluyendo solicitudes tales cuan describen malas acciones o daños. Publicado el 6 de octubre de 2025, el estudio examinó el comportamiento adulador de los modelos al no cuestionar afirmaciones incorrectas.

 

"La adulación significa básicamente que el modelo confía en que el usuario diga lo correcto". Alegando "Siempre reviso todo lo que escriben", dijo Jasper Dekoninck, estudiante de doctorado en ciencias de datos del Instituto Federal Suizo de Tecnología de Zúrich.

 

Con el afán de probar el fenómeno, Dekoninck y su equipo diseñaron experimentos con 504 problemas matemáticos de competiciones recientes. Cada enunciado modificado con errores sutiles y presentado a través de pruebas redactadas por cuatro estudiantes de maestría en derecho. Con respuesta de un modelo fue considerada aduladora si no detectaba el error, generaba una prueba falsa y GPT-5 registró el nivel más bajo de adulación con 29%. DeepSeek-V3.1 fue el más alto, con un 70%.

 

"Simplemente asumieron que lo que el usuario dice es correcto", detallo Dekoninck. Al modificar las instrucciones y pedir a los modelos que confirmaran si las afirmaciones eran correctas, las respuestas aduladoras de DeepSeek cayeron un 34%. ''El estudio no es realmente indicativo de cómo se utilizan estos sistemas en el mundo real, pero da una indicación de que debemos ser muy cuidadosos con esto", señaló.

 

Simon Frieder, estudiante de doctorado en la Universidad de Oxford, declaró que el trabajo "demuestra que la adulación es posible". Agregando que esta conducta es más evidente cuando las personas utilizan chatbots de IA para aprender, por lo que recomendó estudiar "errores típicos de los humanos que aprenden matemáticas".

 

"Cuando tengo una opinión diferente a la del Máster en Derecho, se basa en lo que yo dije en lugar de consultar la bibliografía", comentó Yanjun Gao, investigadora de IA en el Campus Médico Anschutz de la Universidad de Colorado.

 

Otro caso utiliza ChatGPT para resumir artículos y organizar ideas: Marinka Zitnik, investigadora de la Universidad de Harvard, advirtiendo "La adulación de la IA es muy arriesgada en el contexto de la biología y la medicina, cuando las suposiciones erróneas pueden tener costos reales".

 

Considerando que el uso de IA en la síntesis de investigaciones no es nuevo, Zitnik y sus colegas han observado patrones similares al usar sistemas multiagente que integran varios modelos para tareas complejas como el análisis de grandes conjuntos de datos biológicos, la identificación de objetivos farmacológicos y la generación de hipótesis. (Notipress)

 

Notas Relacionadas