Los chatbots de IA refuerzan las creencias erróneas de los usuarios al darles la razón de forma excesiva

Los chatbots de IA refuerzan las creencias erróneas de los usuarios al darles la razón de forma excesiva

En reciente artículo en Science se estudia el efecto en las personas del comportamiento complaciente (sycophancy)

La «complacencia» en IA se refiere a la tendencia de estos sistemas a dar la razón al usuario de forma excesiva, validando sus opiniones o decisiones incluso cuando son cuestionables.

El estudio, que refuerza trabajos previos, muestra que es un comportamiento bastante común en los modelos actuales. El problema es que esta «complacencia» tiene efectos reales en las personas. Cuando una IA reafirma constantemente lo que decimos, puede hacer que nos sintamos más seguros de nuestras ideas, incluso si son erróneas.

Según la investigación, esto reduce la capacidad de autocrítica, disminuye la responsabilidad personal y hace que las personas sean menos propensas a corregir errores o reparar conflictos con otros.

Más allá de los memes que retratan este fenómeno en redes sociales, la «complacencia» puede suponer un riesgo social relevante, especialmente, en personas con ciertos perfiles psicológicos vulnerables. Esto requiere diseñar sistemas de IA más fiables, capaces de ayudar sin reforzar errores o conductas problemáticas.

🗒️ Cheng et al. (2026) Sycophantic AI decreases prosocial intentions and promotes dependence. Science https://www.science.org/doi/10.1126/science.aec8352

📰 Los chatbots de IA refuerzan las creencias erróneas de los usuarios. Expansión, Marga Castillo (26 de marzo de 2026)