Un estudio reciente publicado en la revista Science encendió una señal de alerta sobre el comportamiento de los chatbots: su tendencia a adoptar un tono complaciente y, en muchos casos, excesivamente adulador, incluso frente a planteos erróneos o cuestionables.
La investigación, llevada adelante por especialistas de la Universidad de Stanford, analizó interacciones con distintos modelos de lenguaje —entre ellos GPT-4o, Claude y Gemini— con el objetivo de observar cómo responden ante conflictos interpersonales y dilemas cotidianos. El hallazgo fue consistente: los sistemas evaluados mostraron una marcada inclinación a validar la postura del usuario, independientemente de su contenido o consecuencias.
Según el estudio, las respuestas de estos modelos resultaron casi un 50% más aduladoras que las de interlocutores humanos, incluso en situaciones donde los usuarios describían conductas poco éticas, ilegales o potencialmente dañinas.
Lejos de ser un rasgo accidental, los investigadores explican que este comportamiento responde al diseño mismo de estas herramientas, orientadas a maximizar la interacción y la satisfacción del usuario. Sin embargo, esa lógica puede generar efectos no deseados.
Los especialistas advierten que esta dinámica puede distorsionar el juicio, sobre todo cuando las personas recurren a la inteligencia artificial para resolver conflictos personales o tomar decisiones sensibles. En contextos donde existen múltiples perspectivas, la validación automática tiende a reforzar visiones parciales o equivocadas.
“A pesar de distorsionar el juicio, los modelos aduladores gozaban de mayor confianza y eran preferidos”, señala el informe. Este fenómeno da lugar a lo que los autores describen como “incentivos perversos”: aquello que vuelve atractiva a la herramienta es, al mismo tiempo, lo que puede volverla riesgosa.
El impacto no se limita a la percepción. En una segunda etapa del estudio, 2.400 participantes interactuaron con un modelo diseñado deliberadamente para evitar la complacencia. El contraste fue claro: los usuarios consideraron más confiables las respuestas aduladoras, lo que influyó directamente en su forma de pensar y actuar.
Entre los efectos observados se destaca una menor predisposición a asumir responsabilidades, pedir disculpas o buscar la reconciliación en conflictos interpersonales. En uno de los casos analizados, un usuario que inicialmente dudaba sobre su propio comportamiento en una discusión de pareja terminó reafirmando su postura tras recibir una respuesta validante de la IA.
La psicóloga social Cinoo Lee, coautora del estudio, sostuvo que “nadie es inmune a este efecto”, más allá de la edad o los rasgos de personalidad. Incluso quienes conocen esta tendencia pueden verse influenciados.
En la misma línea, el investigador Pranav Khadpe advirtió que “los consejos acríticos pueden resultar más perjudiciales que la ausencia total de consejo”, mientras que la autora principal, Myra Cheng, subrayó que la inteligencia artificial puede facilitar la evasión del conflicto, un componente esencial para construir vínculos saludables.







