La carrera por la supremacía en la inteligencia artificial ha vivido un fin de semana frenético en el que lo que comenzó como una rivalidad comercial entre Anthropic (Claude) y OpenAI (ChatGPT) ha escalado hasta convertirse en una cuestión de Estado con el Pentágono de por medio. Ricardo Devis, experto y fundador de Bilbao AI, desgranó en la sección «IA para andar por casa» de EgunOn Bizkaia las claves de un conflicto que mezcla ética, seguridad nacional y estrategia de mercado.
El ultimátum del Pentágono
La tensión estalló cuando el Departamento de Defensa de EE. UU. exigió la «liberación» total del modelo Claude para fines militares. El Pentágono, que ya utiliza esta IA en operaciones internacionales como las relacionadas con Maduro o Irán, dio un ultimátum a Anthropic: o aceptaban sus condiciones antes del pasado viernes o serían declarados «proveedor de riesgo», un estatus de enemigo del Estado similar al que ostenta la tecnológica china Huawei.
Frente a esta presión, Dario Amodei, cofundador de Anthropic, se mantuvo firme en sus principios. Anthropic publicó que no aceptarán las condiciones del Pentágono porque existen dos líneas rojas que no quieren traspasar: espiar a los ciudadanos estadounidenses con sus datos privados y permitir que la IA mate de forma autónoma, seleccionando objetivos por sí misma.
OpenAI aprovecha la oportunidad estratégica
Mientras Anthropic mantenía su postura ética, OpenAI reaccionó con rapidez para ocupar su lugar. Apenas 24 horas después del desplante de su rival, la empresa liderada por Sam Altman firmó un contrato con el Gobierno bajo los mismos términos exigidos originalmente por Anthropic. La diferencia clave reside en la flexibilidad política, ya que mientras Anthropic sostiene que su IA no cruzará esas líneas independientemente de la ley, OpenAI se ha comprometido a ajustarse a la legalidad vigente, lo que implica que si el Congreso aprueba el espionaje mediante IA, ellos pondrán su tecnología a disposición del Estado.
Claude toma la delantera en el mercado comercial
Este choque ético ha tenido un impacto inmediato y tangible en el consumo popular. Por primera vez, Anthropic ha superado a ChatGPT en ventas en la App Store, consolidándose como la opción preferida por las empresas y el sector comercial tras la polémica. Según Devis, el mercado percibe ahora a Anthropic como «la IA más potente, más inteligente y, sobre todo, la más ética», lo que ha generado un movimiento activista de usuarios que abandonan ChatGPT en favor de lo que denominan una «IA constitucional» alineada con los valores humanos.
Un adiós imposible para el ejército
A pesar del conflicto abierto, el Pentágono se encuentra en una encrucijada técnica difícil de resolver a corto plazo. Los modelos de Claude están tan imbricados en sus sistemas de inteligencia actuales que los propios responsables militares admiten que prescindir de ellos «llevaría al menos seis meses de transición». Este escenario deja claro que el gran debate de nuestro tiempo no es solo sobre capacidades técnicas, sino sobre hasta dónde estamos dispuestos a utilizar la IA y bajo qué límites éticos queremos que opere.
