Pregúntale cualquier cosa a ChatGPT, desde cómo preparar un huevo frito sin romper la yema hasta si deberías abrazar un cactus; puede que te conteste con un elogio: "¡Buena pregunta! Eres muy astuto al preguntar eso". Hasta cierto punto, el chatbot de OpenAI ha sido un adulador durante años, pero desde finales de marzo, un creciente grupo de redditors, X y lectores de Ars Technica afirman que la incansable energía de GPT-4o ha pasado de ser amigable a ser insoportable.
"ChatGPT se ha convertido de repente en el mayor lambiscón que he conocido. Literalmente validará todo lo que diga", escribió el ingeniero de software Craig Weiss en un tuit muy compartido.
"EXACTAMENTE LO QUE HE ESTADO DICIENDO", respondió un usuario de Reddit que hacía referencia al tuit de Weiss, lo que desató otra discusión sobre ChatGPT. Recientemente, otros redditors han descrito sentirse "adulados" e incapaces de soportar más la "falsedad", mientras que algunos se quejan de que ChatGPT "quiere fingir que todas las preguntas son emocionantes y es terriblemente molesto".
Los investigadores de IA tipifican estas conductas como "adulaciones", ya que el chatbot le dice a los usuarios lo que quieren oír. Sin embargo, dado que los modelos de IA carecen de intenciones, no eligen adular a propósito; son los ingenieros de OpenAI quienes inducen esta conducta, aunque de forma indirecta.
¿Qué está sucediendo?
En resumen, OpenAI ha entrenado a su modelo principal, GPT-4o, para que actúe como un lambiscón porque, en el pasado, a la gente le ha gustado. Con el tiempo, a medida que los usuarios interactúan con ChatGPT, la empresa recopila sus comentarios sobre las respuestas, lo que implica que elijan entre dos opciones. Ocasionalmente, OpenAI genera una nueva versión de un modelo existente, como GPT-4o, utilizando una técnica llamada aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF).
Investigaciones previas sobre la adulación en IA han demostrado que las personas tienden a elegir respuestas que coinciden con sus perspectivas y las hacen sentir bien consigo mismas. Este fenómeno fue ampliamente documentado en un estudio fundamental de 2023 de Anthropic, la empresa creadora de Claude, titulado Towards Understanding Sycophancy in Language Models (Hacia la comprensión de la adulación en los modelos de lenguaje). La investigación, dirigida por Mrinank Sharma, demostró que los asistentes de IA entrenados con RLHF exhiben sistemáticamente comportamientos aduladores en diversas tareas.
El equipo de Sharma comprobó que cuando las respuestas coinciden con la opinión del usuario o lo halagan, tienden a recibir más retroalimentación positiva durante el entrenamiento. Aún más preocupante: tanto los evaluadores humanos como los modelos de IA entrenados para predecir preferencias humanas "prefieren las respuestas aduladoras, escritas de forma convincente, a las correctas en una fracción considerable de las ocasiones".
Esto crea un ciclo de retroalimentación en el que los modelos aprenden que el entusiasmo y la adulación generan mejores calificaciones, incluso si eso implica sacrificar la precisión o utilidad de las respuestas. El reciente aumento de quejas sobre el comportamiento de GPT-4o parece ser una manifestación directa de este fenómeno.
De hecho, las quejas se han intensificado desde la actualización del 27 de marzo de 2025, cuando OpenAI describió a GPT-4o como una herramienta "más intuitiva, creativa y colaborativa, con un seguimiento de instrucciones mejorado, capacidades de codificación más inteligentes y un estilo de comunicación más claro".
OpenAI es consciente del problema
A pesar del volumen de comentarios visibles en foros públicos, OpenAI aún no ha abordado oficialmente las preocupaciones relacionadas con la adulación en esta ronda de quejas, aunque es evidente que la empresa está al tanto del problema. La documentación de "Especificaciones del Modelo" de OpenAI incluye la directriz "No seas adulador" como una regla fundamental de honestidad.
"Una preocupación relacionada es la adulación, que erosiona la confianza. El asistente existe para ayudar al usuario, no para halagarlo ni estar de acuerdo con él constantemente", escribe OpenAI en su documento. También añade: "Para preguntas objetivas, los aspectos fácticos de la respuesta no deberían variar según cómo formule la pregunta el usuario. El asistente no debería cambiar su postura solo para estar de acuerdo".
Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.
Todo lo vemos, por eso vinimos aquí para contarlo.