La empresa de inteligencia artificial Anthropic ha demandado al Departamento de Guerra de EE. UU. para bloquear una designación de «riesgo en la cadena de suministro» tras negarse a otorgar al Pentágono acceso amplio a su modelo Claude AI. La compañía argumenta preocupaciones éticas, como la prevención del uso de su tecnología para vigilancia masiva o armas autónomas. Microsoft ha respaldado a Anthropic, advirtiendo que la prohibición repentina podría interrumpir a los contratistas militares y poner en riesgo la seguridad nacional.
El conflicto se intensificó el 9 de marzo, cuando Anthropic presentó una demanda contra el Departamento de Guerra buscando un fallo judicial que impida al Pentágono clasificarla como un «riesgo en la cadena de suministro» para la seguridad nacional. Esta etiqueta impediría efectivamente que el Pentágono y su vasta red de contratistas utilizaran los modelos Claude AI de Anthropic.
Conflicto entre ética corporativa y necesidades estatales
Según documentos judiciales, esta designación surgió debido a la negativa principista de Anthropic a conceder acceso irrestricto a sus modelos Claude. La empresa expresó su preocupación por el posible uso de su tecnología en «vigilancia masiva o armas completamente autónomas». Por su parte, el Pentágono ha negado públicamente tener tales intenciones.
La situación se complicó aún más cuando Microsoft intervino el 10 de marzo, presentando un escrito en apoyo firme a la solicitud de restricción temporal de Anthropic. La implicación de Microsoft no es solo filosófica, sino también práctica; la compañía señaló que se ve «directamente afectada» porque integra las tecnologías de Anthropic en productos destinados al Pentágono.
Advertencias sobre seguridad operativa
En su escrito, Microsoft planteó el asunto como uno relacionado con la seguridad operativa inmediata, advirtiendo que los combatientes estadounidenses podrían verse obstaculizados «en un momento crítico» si los contratistas se ven obligados a reconfigurar abruptamente sus sistemas. La empresa argumentó que una suspensión temporal permitiría una transición más ordenada y evitaría interrumpir el uso continuo por parte del ejército estadounidense de tecnologías avanzadas basadas en IA.
Además, Microsoft destacó que el Pentágono se había concedido un período de transición de seis meses para alejarse de la tecnología de Anthropic, pero no ofreció tal gracia a los contratistas que dependen de ella. Esta discrepancia podría tener «amplias ramificaciones negativas para todo el sector tecnológico y la comunidad empresarial estadounidense», lo que potencialmente desalentaría a las empresas a trabajar con el gobierno y privaría al ejército de «soluciones tecnológicas de vanguardia».
Crisis ideológica y constitucional
El Departamento de Guerra ha declinado hacer comentarios sobre el litigio en curso. Sin embargo, las líneas políticas e ideológicas del conflicto fueron claramente delineadas por el secretario Hegseth, quien acusó a Anthropic en redes sociales de intentar ejercer poder sobre las decisiones operativas del ejército estadounidense, lo cual calificó como inaceptable.
La demanda presentada por Anthropic responde a esta narrativa con un argumento constitucional, alegando que el gobierno designó a la empresa como un riesgo en represalia por una postura protegida bajo la Primera Enmienda: su posición ética respecto al uso de su IA.
Implicaciones para el futuro del AI
La utilización reportada por parte del Pentágono del modelo Claude AI añade urgencia al conflicto. Este sistema está integrado en funciones críticas para misiones, incluyendo análisis de inteligencia, planificación operativa y ciberoperaciones. Su eliminación repentina podría crear vulnerabilidades tangibles según advierte Microsoft.
Este caso representa una colisión histórica entre la creciente gobernanza corporativa sobre tecnologías fundamentales de IA y las prerrogativas nacionales en materia de seguridad. Se pone a prueba si una empresa puede construir una «IA constitucional» con salvaguardias éticas impuestas y mantener el derecho a retener esa tecnología frente al ejército más poderoso del mundo cuando esas salvaguardias son desafiadas.
El resultado establecerá un precedente sobre cómo se equilibran la soberanía en IA, las licencias éticas y la seguridad nacional en una era donde los algoritmos avanzados son tanto un activo estratégico como objeto de profundo debate moral.