La ruptura entre Anthropic y la Administración de Donald Trump marca un punto de inflexión en la historia reciente de la inteligencia artificial. Este es un choque frontal entre una empresa que ha construido su marca alrededor de la seguridad algorítmica y un Gobierno que exige control absoluto sobre las herramientas que considera estratégicas para la defensa nacional.

El detonante fue claro. El Pentágono exigió poder utilizar el modelo Claude sin restricciones operativas. Anthropic respondió que no cruzaría dos líneas rojas: permitir vigilancia masiva de ciudadanos estadounidenses y facilitar el desarrollo o uso de armas autónomas sin intervención humana. Esa negativa desencadenó una escalada política que terminó con una orden presidencial para que todas las agencias federales dejen de usar su tecnología en un plazo de seis meses.

Anthropic, de socio estratégico a “riesgo nacional”

Hace apenas unos meses, la relación era muy distinta. Anthropic había firmado un contrato de hasta 200 millones de dólares para operar en redes clasificadas del Departamento de Guerra. Claude se convirtió en el primer modelo de IA desplegado en ese entorno sensible. Era una señal de confianza institucional y una validación de su enfoque centrado en la seguridad.

Hoy, el secretario de Guerra ha instruido que la compañía sea considerada un “riesgo para la cadena de suministro”. La etiqueta tiene implicaciones profundas. Cualquier empresa que mantenga contratos con las Fuerzas Armadas podría verse obligada a romper vínculos con Anthropic.

El Gobierno sostiene que no puede permitir que un proveedor privado condicione decisiones tácticas. Un funcionario del Pentágono lo expresó sin ambigüedades. La responsabilidad sobre la legalidad del uso recae en el usuario final, no en quien desarrolla la herramienta. Desde esa perspectiva, aceptar límites contractuales sería ceder soberanía operativa.

Anthropic, en cambio, insiste en que ciertos usos pueden socavar valores democráticos y que su política de uso aceptable no es negociable. Su CEO, Dario Amodei, afirmó públicamente que las amenazas no cambiarían su postura. La empresa prefiere asumir el costo político antes que modificar principios que considera fundacionales.

El arma jurídica sobre la mesa

La tensión alcanzó un nuevo nivel cuando el Pentágono dejó entrever que podría invocar la Ley de Producción de Defensa de 1950 para forzar la colaboración. Esa legislación otorga amplios poderes al presidente para intervenir industrias consideradas críticas en situaciones de emergencia.

La posibilidad abre un escenario inédito en el sector tecnológico. Obligar a una compañía de IA a prestar servicios bajo condiciones que rechaza éticamente colocaría a la Casa Blanca en un terreno legal y político complejo. Al mismo tiempo, declararla riesgo de seguridad mientras se intenta forzar su colaboración revela una contradicción estratégica difícil de sostener.

En términos financieros, la pérdida del contrato de 200 millones no pone en peligro inmediato a una compañía valorada en unos 380.000 millones de dólares. El verdadero impacto es estructural.

La designación como riesgo para la cadena de suministro puede afectar su cartera de clientes corporativos, especialmente a aquellos que mantienen o aspiran a mantener contratos con el Gobierno. El mensaje es disuasorio para toda la industria.

Sin embargo, el Pentágono tampoco queda en una posición cómoda. Sustituir a Claude implica migrar sistemas internos y procesos críticos. Aunque funcionarios han señalado que existen alternativas dispuestas a operar en entornos clasificados, algunas no alcanzan el mismo nivel de sofisticación.

Pero la competencia está lista. Empresas como OpenAI, xAI o Google ya mantienen acuerdos con el Departamento de Defensa o presionan para ampliarlos. En un sector donde la innovación avanza a velocidad vertiginosa y las inversiones se cuentan en cientos de miles de millones, el espacio que deja un actor puede ser ocupado rápidamente por otro. Esa es la paradoja para Anthropic. Su gesto puede fortalecer su imagen ética ante parte del mercado, pero en el terreno estratégico el vacío no dura mucho.

La batalla de Anthropic que trasciende a las partes

Lo que está en juego no es solo un contrato ni una disputa personal entre Trump y Amodei. Es la definición de quién establece los límites cuando la IA se convierte en instrumento de poder militar.

Si el Gobierno logra imponer su criterio, quedará claro que ninguna empresa tecnológica puede condicionar el uso de herramientas consideradas estratégicas. Si Anthropic resiste y mantiene su posición en el mercado, abrirá la puerta a un modelo donde las compañías conserven capacidad real para fijar líneas rojas.

Por ahora, la guerra es política y regulatoria. Pero el desenlace marcará el equilibrio de poder entre Silicon Valley y Washington.