El Pentágono declara a Anthropic riesgo de seguridad y la inhabilita

El gobierno de Estados Unidos ha ordenado a todas las agencias federales cesar inmediatamente el uso de la tecnología de Anthropic, clasificándola como un riesgo para la cadena de suministro de seguridad nacional. Esta decisión, impulsada por el Secretario de Defensa Pete Hegseth, prohíbe a cualquier contratista del Pentágono realizar negocios con la firma de inteligencia artificial. La sanción llega tras el colapso de negociaciones contractuales donde Anthropic se negó a permitir el uso de sus modelos para armas autónomas o la vigilancia masiva doméstica de ciudadanos estadounidenses.

El Presidente Donald Trump emitió la orden ejecutiva para detener el uso de la tecnología de Anthropic tras que las conversaciones se estancaran. El Director Ejecutivo de la Comisión Federal de Comunicaciones, Brendan Carr, declaró públicamente que la empresa cometió un error al no aceptar las condiciones propuestas. Según Carr, Anthropic recibió múltiples oportunidades para encontrar un acuerdo favorable, pero optó por no tomarlas, lo que resultó en su exclusión del ecosistema de defensa estadounidense.

El conflicto ético y las condiciones del Departamento de Defensa

El núcleo de la disputa radica en las condiciones impuestas por el Departamento de Defensa (DoD). La entidad militar exigía que Anthropic permitiera el uso de sus modelos de inteligencia artificial en todos los casos legales, incluyendo aplicaciones de defensa ofensiva. Por el contrario, el CEO de Anthropic, Dario Amodei, afirmó que la compañía no podía, en buena conciencia, permitir que sus sistemas fueran utilizados bajo esas condiciones específicas. La firma solicitó explícitamente restricciones que prohibieran el despliegue de armas totalmente autónomas y la vigilancia masiva interna.

La designación de "Riesgo de Cadena de Suministro" es una medida severa que bloquea el acceso a contratos gubernamentales y a la infraestructura de defensa. Anthropic ha calificado esta medida como legalmente insostenible y un precedente peligroso, aunque reafirmó su apoyo a todos los usos lícitos de la IA para la seguridad nacional, exceptuando las áreas de vigilancia doméstica y armas autónomas. La firma expresó su pesar por la decisión, señalando que el gobierno les dio opciones para corregir el rumbo que no fueron aprovechadas.

El contraste con OpenAI y las lecciones del mercado de IA

Mientras Anthropic enfrenta la exclusión total, su competidor OpenAI ha logrado un acuerdo con el Departamento de Defensa, aunque con matices importantes. El CEO de OpenAI, Sam Altman, anunció que su empresa aceptó las condiciones para el uso de sus modelos. Sin embargo, Altman admitió que la empresa no debió haber apresurado su acuerdo inicial con el Pentágono, describiendo el trato original como "oportunista y descuidado".

Tras la revisión de los términos, OpenAI estableció una cláusula clara que estipula que sus sistemas de IA no serán utilizados intencionalmente para la vigilancia doméstica de personas y nacionales estadounidenses. Este movimiento contrasta directamente con la postura de Anthropic, que rechazó el trato por completo. La diferencia en los enfoques de ambos gigantes de la IA refleja la creciente tensión entre la innovación tecnológica y las regulaciones de seguridad nacional en un entorno geopolítico complejo.

Implicaciones para el inversor latinoamericano

Para el inversor en América Latina, esta noticia no es un evento aislado de la industria tecnológica de EE. UU., sino un indicador de cómo la soberanía digital y la seguridad nacional están redefiniendo las reglas de inversión en inteligencia artificial. La prohibición de Anthropic establece un precedente de que los contratos de defensa y gobierno requieren estándares éticos y de seguridad que no pueden ser negociados a la baja.

El impacto en los mercados regionales es indirecto pero significativo. La volatilidad en el sector de IA de EE. UU. afecta la valoración de empresas de tecnología emergentes en la región que dependen de infraestructura o alianzas con gigantes estadounidenses. Con el tipo de cambio en 1 USD = 17.32 MXN, 1 USD = 1452 ARS y 1 USD = 3764 COP, cualquier fluctuación en la confianza de los inversores globales hacia la IA se traduce en costos de capital más altos para las startups latinoamericanas que buscan escalar.

La claridad regulatoria que busca el gobierno de EE. UU. podría forzar a las empresas de IA a adoptar estándares más estrictos globalmente. Para los fondos de inversión en la región, esto implica que la debida diligencia sobre el uso de datos y la ética algorítmica debe ser un factor central en la evaluación de activos tecnológicos. La exclusión de Anthropic demuestra que la alineación con las políticas de seguridad nacional de EE. UU. es un requisito indispensable para acceder a los contratos más lucrativos del sector de defensa, un mercado que impulsa gran parte de la innovación en IA.

La incertidumbre sobre cómo se aplicarán estas nuevas restricciones a nivel global permanece, pero el mensaje es claro: la tecnología de IA ya no es un territorio neutral. Las empresas que no puedan o no quieran cumplir con los estándares de seguridad y ética exigidos por las potencias mundiales enfrentarán barreras de entrada insalvables en los mercados de defensa y gobierno. El inversor latinoamericano debe vigilar de cerca cómo estas dinámicas reconfiguran el panorama de inversión tecnológica en los próximos trimestres.

Fuente: CNBC | Análisis por Rumour Team