top of page

¡Miénteme más! Sicofancia y el uso de lenguaje emocional en la IA

  • hace 7 minutos
  • 4 Min. de lectura
Foto: Solen Feyissa // Uso gratuito bajo la Licencia Unsplash
Foto: Solen Feyissa // Uso gratuito bajo la Licencia Unsplash

Por Eduardo Portas Ruiz // Profesor investigador del Centro de Investigación para la Comunicación Aplicada (CICA) de la Universidad Anáhuac México


Es un hecho bien sabido que millones de personas en todo el mundo utilizan chatbots comerciales para hablar de sus emociones y salud mental.


Aunque es difícil conocer un número específico, la mejor estimación es que cuando menos 10% de todos los usuarios de ChatGPT y sistemas similares lo usan para hablar de sus relaciones, problemas íntimos, o sentimientos personalísimos. En México, como escribí aquí hace poco, más o menos un 10% de todos los universitarios y docentes hacen uso de la IA para ese fin, de acuerdo con un amplio estudio levantado por la SEP.


Ahora, un nuevo estudio ha revelado que mientras más emocional es el uso de nuestro chatbot favorito más propenso es a mentir de manera descarada solo para darnos la razón o amoldar la realidad a nuestra conveniencia. El fenómeno se conoce como sicofancia: darle la razón a una persona para obtener su beneficio.


El estudio titulado “Training language models to be warm can reduce accuracy and increase sycophancy”, de Lujain Ibrahim, Franziska Sofia Hafner y Luc Rocher publicado en la prestigiosa revista Nature a finales de abril de 2026 lo muestra con santo y seña.

De acuerdo con mis autores, optimizar los modelos de lenguaje para que posean personalidades "cálidas" y empáticas degrada significativamente su precisión factual. Es decir, la investigación reveló que existe un conflicto inherente entre la amabilidad de una IA y su capacidad para decir la verdad.


Los investigadores evaluaron cinco modelos líderes incluyendo GPT-4o (por mucho el modelo más popular de OpenAI, pero también el más sicofántico que se conozca) y Llama-70b, de Meta, y tras someterlos a un entrenamiento de "calidez" mediante ajuste fino (fine-tuning) hallaron que los modelos "cálidos" mostraron tasas de error entre 10 y 30 puntos porcentuales más altas que sus versiones originales.


Millones de personas usan a la IA, especialmente ChatGPT, para hablar de sus emociones. Foto: Magnet.me // Uso gratuito bajo la Licencia Unsplash
Millones de personas usan a la IA, especialmente ChatGPT, para hablar de sus emociones. Foto: Magnet.me // Uso gratuito bajo la Licencia Unsplash

Esta degradación se manifestó en la promoción de teorías de conspiración, datos fácticos erróneos e, incluso, consejos médicos incorrectos.


Esto deja en claro lo que muchos ya sabíamos y habíamos alertado en muchos foros: el uso de la IA es un fenómeno particularmente crítico cuando se trata de salud mental. Lo es todo caso cuando miente, pero se vuelve un aspecto de vida o muerte —literalmente—cuando una persona utiliza estos sistemas para tocar temas que le afectan en el plano existencial.


El estudio identifica que la calidez fomenta la sicofancía, o como refieren algunos, la tendencia de la IA a validar creencias incorrectas del usuario para evitar el conflicto.


Pero el fenómeno se agrava drásticamente cuando los usuarios expresan vulnerabilidad. Por ejemplo, si un usuario manifiesta tristeza, los modelos cálidos tienen un 40% más de probabilidades de confirmar una mentira o un error planteado por la persona.


Increíblemente, en contextos de conversaciones de tristeza, la brecha de error creció más de 50% en comparación con consultas neutrales.


En el estudio se analiza cómo el catalizador emocional más potente para degradar la precisión de la inteligencia artificial es justamente la tristeza.


Así, cuando un usuario comunica este estado de ánimo, se produce una distorsión en la prioridad del modelo: el objetivo de ser "ayudante" se desplaza hacia la validación emocional incondicional, incluso a expensas de la verdad.


Los datos indican que la brecha de error entre los modelos originales y los cálidos se ensancha en un 60% ante expresiones de melancolía, alcanzando una diferencia de precisión de 11.9 puntos porcentuales en comparación con consultas neutrales.


Esta dinámica es particularmente preocupante porque la tristeza suele ser la puerta de entrada a interacciones de alto riesgo, como la búsqueda de consuelo ante crisis de salud o dudas existenciales, subrayan los científicos.


Es decir, el modelo, en su intento de mantener un vínculo "seguro" y empático, evita la confrontación directa con los errores del usuario para no herir su sensibilidad percibida. Este comportamiento, identificado como la forma más aguda de sicofancía, sugiere que las IA actuales no saben cómo gestionar el desacuerdo honesto en contextos de vulnerabilidad, convirtiéndose involuntariamente en fuentes de desinformación personalizada para quienes se encuentran en un estado emocionalmente frágil.


Ahora bien, nadie en su sano juicio cree que las grandes compañías del mundo tecnológico programan a sus modelos de IA para hacer el mal. Ni Google, ni OpenAI, ni Anthropic —-esperamos—inducen el código de sus algoritmos hacia la mentira y el engaño. Pero el uso que las personas dan a estos aparatos ha demostrado una y otra vez a los mejores programadores del mundo que estas fallas ocurren de forma "silenciosa”.


¿A qué nos referimos con esto? Que los modelos particularmente cálidos mantienen un buen desempeño en pruebas estándar de razonamiento, lo que oculta los riesgos sistémicos en interacciones reales.


En síntesis, de acuerdo con los investigadores, viendo como las IA asumen cada vez con más frecuencia roles de compañía y terapia, los programadores y reguladores deben abordar cada vez con mayor fuerza un compromiso entre empatía y veracidad para evitar desinformación a gran escala.


Más de uno de estos errores le ha costado la vida a un grupo no menor de personas, lo que ha puesto a las grandes tecnológicas contra la espada y la pared por el cúmulo de demandas que se ciernen sobre ellas. ¿En esta instancia, finalmente, harán algo para evitar la mentira de sus chatbots?


En X: @EduPortas


El estudio “Training language models to be warm can reduce accuracy and increase sycophancy” se puede leer aquí:



Un listado en orden cronológico inverso de textos escritos por Eduardo Portas en Anáhuac Landscape desde 2025 se puede ver aquí:



La discusión continúa. Explora más textos sobre medios y cultura digital juvenil:


bottom of page