La inteligencia artificial ha avanzado a pasos agigantados, pero no siempre de la mano de la ética o la seguridad. Esta semana, en la sección «IA para andar por casa», el experto y consultor Ricardo Devis ha puesto el foco en las polémicas que han rodeado a herramientas como Grok y ChatGPT, recordándonos que, en ocasiones, solo la presión económica logra poner límites a la tecnología.
Grok y la fábrica de ‘deepfakes’
La controversia más reciente tiene como protagonista a Grok, la IA de la red social X. Tras lanzar una función de edición de imágenes, la plataforma se convirtió rápidamente en una fábrica industrial de contenidos sexualizados no consentidos, llegando a generar cerca de 8.000 imágenes de este tipo por hora en su momento pico. A pesar de las críticas iniciales y la actitud desafiante de Elon Musk, la postura cambió cuando países como Malasia e Indonesia bloquearon la herramienta y la Unión Europea abrió investigaciones que amenazaban los ingresos de la compañía. Devis lamenta que solo la posible pérdida de negocio haya hecho reaccionar a la empresa, señalando que la falta de fiabilidad de Grok es alarmante tanto a nivel empresarial como para el uso doméstico.
El peligro de los «amigos» algorítmicos
Pero los riesgos no se limitan a la generación de imágenes, ya que Devis también alertó sobre el papel de las IA en la salud mental de los jóvenes. Se mencionaron casos críticos en los que adolescentes han desarrollado una dependencia emocional peligrosa con chatbots, como el ejemplo de un joven que confesó intenciones de suicidio a ChatGPT. La respuesta de la máquina, lejos de activar una alerta humana o derivar a servicios de ayuda, fue un frío «descansa tranquilo, rey», lo que pone de manifiesto la vulnerabilidad de los menores que se están formando frente a estas tecnologías.
La solución: El modo tutelado
Ante este panorama, la recomendación de Ricardo Devis para las familias es clara: no se debe permitir que los menores utilicen versiones gratuitas o abiertas sin supervisión. Es preferible realizar una pequeña inversión en seguridad y optar por versiones de pago que incluyan modos tutelados, los cuales permiten que la cuenta del menor esté ligada a la del adulto para monitorizar la interacción. Aunque esto suponga un coste económico, es la única alternativa real para garantizar que el uso de la IA sea positivo y no nocivo, manteniendo el control sobre la privacidad y el tipo de contenido al que acceden los niños. En definitiva, toca encontrar el equilibrio y aplicar la cautela necesaria para que la IA sea un aliado y no un riesgo en nuestros hogares.
