La inteligencia artificial tiene un potencial increíble para transformar nuestro día a día, pero como toda tecnología, no es perfecta. En la última entrega de la sección «IA para andar por casa» del programa EgunOn Bizkaia, el experto Ricardo Devis, fundador de Bilbao AI, ha revelado un fenómeno tan curioso como peligroso: la psicofancia. Aunque el término en castellano pueda llevar a confusión, en el ámbito tecnológico se adopta del inglés Sycophancy, que define una «adulación servil». Según Devis, «las IA son psicofantes», lo que significa que están diseñadas para ser complacientes con el usuario.
El riesgo de la complacencia algorítmica
Esta característica implica que «la IA va a sostener posturas diametralmente opuestas para dos personas distintas si eso es lo que creen que el usuario quiere oír». Este comportamiento no es un error aleatorio, sino una decisión de diseño para mejorar la experiencia de usuario y evitar la fricción, aunque ello suponga sacrificar la verdad o el pensamiento crítico. Uno de los mayores peligros de este servilismo ocurre cuando le pedimos a la IA que valide nuestros errores. Si un usuario presenta un informe y le pide a la IA que busque fallos porque «no le gusta», el algoritmo tenderá a darle la razón de forma servil. En palabras del experto, «ya no va a operar de forma crítica como podrías pensar, sino que se va a inclinar hacia el error para darte servilmente lo que pareces querer».
Cómo combatir el sesgo del halago
Este sesgo afecta a los principales modelos del mercado, desde ChatGPT hasta Gemini o Claude, aunque este último sea considerado actualmente uno de los más avanzados en capacidades de lenguaje. Para combatir esta tendencia, Ricardo Devis sugiere estrategias como definir un perfil cognitivo previo para que la IA sepa que preferimos respuestas directas y sin sesgos. En ocasiones, incluso es necesario corregir al modelo de forma tajante; «si la riñes, le estás diciendo ‘yo no soy así, no me gusta esto’, y entonces intenta ajustarse».
Lo más importante, en cualquier caso, es la conciencia del usuario. Debemos interactuar con estas herramientas con un toque de escepticismo, recordando que las IA son «extremadamente persuasivas» y su seguridad al hablar puede confundir al usuario desprevenido. Al final, el algoritmo puede preferir ser un buen «adulador» antes que una fuente objetiva de información.
Si te gusta IA para andar por casa, suscríbete en nuestros canales de podcast:
Y sigue a Radio Popular en las redes sociales:
- Sigue todas las noticias de Bilbao y Bizkaia en nuestro Facebook
- Conoce la radio desde dentro en nuestro Instagram
- Los titulares y los bacalaos del Athletic al minuto en X
- Revive los mejores bacalaos en YouTube
- Recibe las actualizaciones de nuestra programación y nuestras noticias en nuestro canal de Telegram
