Anthropic, a leading artificial intelligence company, has denied Pentagon claims that it maintains control over its Claude AI models deployed on military networks. In a court filing, Anthropic asserted there is "no back door or remote kill switch" for its systems and emphasized that once deployed, the AI model is static and cannot be modified without authorization. This legal dispute arose after the Pentagon labeled Anthropic as a "supply-chain risk to national security," hindering its ability to secure government contracts. The conflict highlights tensions between ethical AI development and military demands for technology use, with broader implications for national security and corporate ethics in the tech industry.
La empresa de inteligencia artificial Anthropic ha rechazado formalmente las afirmaciones del Pentágono sobre su control sobre los modelos de IA Claude una vez que estos son desplegados en redes militares clasificadas, según un nuevo documento judicial. La compañía declaró que no tiene «puertas traseras ni interruptores de apagado remoto» para sus sistemas y que su personal no puede acceder a los sistemas del departamento de defensa para modificar o desactivar un modelo en funcionamiento.
Este conflicto se hizo público a través de una presentación ante un tribunal federal de apelaciones en Washington D.C., donde Anthropic cuestionó lo que denominó la «reclamación clave de la administración estadounidense» que sostenía que la firma se había otorgado un «veto operativo». La empresa argumentó que el sistema de IA proporcionado al Pentágono es un modelo «estático», lo que significa que no cambia por sí mismo después de su despliegue y que la compañía no puede realizar modificaciones no autorizadas.
La disputa surgió de un desacuerdo esencial sobre los usos permitidos de la tecnología de Anthropic. El Departamento de Guerra insistió en utilizar el sistema Claude para «todos los fines militares legales». En contraste, Anthropic sostuvo que sus salvaguardias corporativas, integradas en sus modelos, prohíben usos relacionados con la vigilancia masiva y armas completamente autónomas.
Según documentos judiciales, el Pentágono había dado a Anthropic un plazo para aceptar demandas relacionadas con un uso militar más amplio de su IA. La negativa de la compañía a eliminar estas barreras éticas llevó a la designación de riesgo en la cadena de suministro. La demanda de Anthropic sostiene que la administración «excedió su autoridad legal y tomó represalias contra la empresa por negarse a eliminar las salvaguardias».
El archivo presentado por Anthropic enfatiza la naturaleza técnica de su implementación. La compañía afirma que su modelo, una vez instalado en un sistema seguro del Pentágono, está aislado. «Anthropic no puede realizar cambios no divulgados o no autorizados a un modelo después de que el departamento lo haya desplegado», indica el documento, contrarrestando así la implicación de control remoto por parte de la empresa.
La designación formal del Pentágono como «riesgo en la cadena de suministro» el 27 de febrero trajo consigo repercusiones legales y comerciales inmediatas para Anthropic. Esta etiqueta, generalmente reservada para entidades vinculadas a adversarios extranjeros, impide no solo contratos directos con el gobierno, sino también que otros contratistas federales utilicen productos de Anthropic. Esta designación siguió meses de enfrentamientos sobre el deseo militar por un uso irrestricto de tecnología IA.
La compañía presentó una demanda contra el Departamento de Guerra y el secretario Pete Hegseth el 9 de marzo, desafiando dicha designación. Anthropic argumentó que la acción del gobierno fue retaliatoria, tomada porque la empresa se negó a comprometer sus políticas de seguridad respecto a armas autónomas y vigilancia masiva. Este caso ha captado atención significativa dentro de la industria tecnológica, con Microsoft presentando un escrito como amigo del tribunal en apoyo a la solicitud temporal bloqueando dicha designación.
El conflicto se desarrolla en medio del creciente escrutinio sobre las aplicaciones militares de la IA. Como señalan análisis independientes, el impulso por integrar IA en conflictos bélicos representa una centralización del poder tecnológico que acarrea riesgos significativos.
La batalla legal ha producido decisiones divididas entre tribunales federales, creando una situación interina compleja para Anthropic. A principios de este mes, el Tribunal del Circuito D.C. rechazó la solicitud urgente de Anthropic para pausar temporalmente la designación como riesgo en la cadena de suministro. Sin embargo, en un caso paralelo en el Distrito Norte de California, la jueza Rita Lin falló a favor de la empresa.
La jueza Lin emitió una orden judicial preliminar el 26 de marzo, bloqueando temporalmente al gobierno para hacer cumplir dicha designación. En su fallo, Lin indicó que las acciones del Pentágono probablemente constituyeron «represalias ilegales» contra Anthropic por su discurso protegido relacionado con protocolos de seguridad en IA. Esta decisión impide al gobierno terminar sus contratos existentes con la firma mientras avanza el caso.
A pesar del estatus legal dividido, Anthropic sigue excluida para nuevos trabajos con el Pentágono pero puede continuar asociaciones con otras agencias federales. Este mosaico legal resalta lo sin precedentes del conflicto, enfrentando las restricciones éticas impuestas por una empresa privada contra las exigencias tecnológicas del establecimiento defensivo.
El caso Anthropic subraya las crecientes tensiones entre los desarrolladores tecnológicos en Silicon Valley y las demandas gubernamentales para aplicaciones militares y vigilancia. Esta fricción no es aislada; una carta abierta firmada por cientos empleados en Google y OpenAI argumenta que ciertas líneas éticas «no deberían borrarse nunca, incluso en nombre de ‘la seguridad nacional’».
Además, esta disputa llega acompañada por advertencias sobre el potencial disruptivo de la IA. Analistas independientes han advertido durante mucho tiempo que si se desarrolla sin controles éticos adecuados podría reemplazar trabajadores humanos y consolidar aún más el poder. Se prevé que la IA generativa reemplace hasta 300 millones empleos globalmente, un cambio económico capaz generar inestabilidad social.
Aparte, las demandas energéticas derivadas por enormes centros datos dedicados a IA están poniendo presión sobre las redes eléctricas nacionales, creando un conflicto entre ambición tecnológica e infraestructura realista. Anthropic ha advertido previamente que algunos modelos propios son «demasiado peligrosos para ser liberados públicamente». Recientemente confirmó haber informado a la administración Trump sobre su nuevo modelo 'Mythos', considerado tan poderoso en capacidades cibernéticas que no será liberado públicamente.