La inteligencia artificial (IA) se ha colado en nuestras vidas, desde el ascensor hasta las decisiones administrativas más complejas. Sin embargo, detrás del marketing brillante se esconden reglas estadísticas, sesgos humanos y un coste ambiental que a menudo permanece invisible. Lorena Fernández, ingeniera informática y experta en ética digital, analiza en el programa EgunOn Bizkaia los desafíos de esta tecnología ante el arranque del proyecto de divulgación Zientzaz Blai en Bilbao el próximo 23 de abril.
Ni inteligente, ni artificial
A pesar del nombre, Fernández es tajante: «La inteligencia artificial no es inteligente ni es artificial». Según la experta, nos encontramos ante la mejor campaña de marketing de la historia de la ingeniería. Lo que percibimos como «razonamiento» en herramientas como ChatGPT es, en realidad, pura estadística. «Detrás de cada palabra hay una probabilidad estadística de cuál debería ser la siguiente. No están entendiendo, sino simulando muy bien que piensan». Esta falta de comprensión real hace que la IA tienda a la uniformización del lenguaje, buscando siempre los patrones más comunes y eliminando la riqueza de los matices humanos.
Los peligros del «Sesgo de Automatización»
Uno de los puntos más críticos de la entrevista aborda cómo las administraciones públicas utilizan algoritmos para tomar decisiones de alto impacto, como el sistema VioGén o EPEWR, que predicen el riesgo de reincidencia en casos de violencia machista.
Fernández advierte sobre el sesgo de automatización: la tendencia humana a confiar ciegamente en la máquina cuando el volumen de trabajo es alto. «Delegamos la decisión en lo que dice el algoritmo pensando que, al ser ‘ceros y unos’, tomará mejores decisiones que nosotros». La experta insiste en que la agencia debe ser siempre humana y que la tecnología debe ser solo un acompañamiento al criterio profesional.
Los tres derechos de la ciudadanía frente al algoritmo
Para transitar hacia un «tecnorrealismo» saludable, Fernández propone que los ciudadanos exijamos tres derechos fundamentales:
-
Derecho a saber: Conocer cuándo está interviniendo un sistema algorítmico en una decisión que nos afecta.
-
Derecho a la explicación: Entender bajo qué parámetros la máquina ha tomado una decisión (por ejemplo, por qué se concede un bono social a una persona y a otra no).
-
Derecho a la reclamación: Disponer de mecanismos para impugnar decisiones erróneas tomadas por una IA.
El rastro físico de la «nube»
Finalmente, la entrevista pone el foco en la sostenibilidad. La IA no es algo etéreo; tiene una infraestructura física masiva que consume recursos naturales de forma alarmante. «La nube se materializa en los Centros de Procesado de Datos (CPD), espacios enormes con un altísimo consumo energético e hídrico para refrigerar los servidores». Además del gasto de agua y energía, Fernández recuerda el coste humano y geopolítico: desde la extracción de minerales en zonas de conflicto como el Congo, hasta el vertido de basura electrónica en países del sur global como Filipinas.

Si te gusta EgunOn Bizkaia, suscríbete en nuestros canales de podcast:
Y sigue a Radio Popular en las redes sociales:
- Sigue todas las noticias de Bilbao y Bizkaia en nuestro Facebook
- Conoce la radio desde dentro en nuestro Instagram
- Los titulares y los bacalaos del Athletic al minuto en X
- Revive los mejores bacalaos en YouTube
- Recibe las actualizaciones de nuestra programación y nuestras noticias en nuestro canal de Telegram
