CLAVES

Juez federal suspende designación de riesgo de cadena de suministro a Anthropic por parte de Trump

AI y seguridad

OpenAI | Lunes 30 de marzo de 2026

Un juez federal ha suspendido temporalmente la designación de la administración Trump que clasificaba a Anthropic como un riesgo para la cadena de suministro nacional. La decisión del juez Alsup establece que el uso de libros adquiridos legalmente por Anthropic para el entrenamiento de inteligencia artificial se considera un uso justo, aunque su utilización de libros pirateados podría enfrentar sanciones penales en un juicio programado para diciembre. Esta medida otorga a Anthropic alivio inmediato frente a daños reputacionales y restricciones contractuales con el Pentágono. La empresa argumenta que la designación fue motivada políticamente, mientras que el Pentágono sostiene que representa riesgos legítimos relacionados con la integridad de los datos y la influencia extranjera. Este caso destaca las tensiones entre la innovación tecnológica y la regulación gubernamental, y sus resultados podrían influir en el desarrollo futuro de la inteligencia artificial y las políticas de seguridad nacional.



Un juez federal ha decidido suspender temporalmente la controvertida designación de la empresa de inteligencia artificial Anthropic como un riesgo para la cadena de suministro nacional, una medida impulsada por la administración Trump. La decisión, emitida el jueves por la jueza del Distrito de EE. UU. Rita Lin, representa una victoria inicial para Anthropic, que ha enfrentado crecientes presiones mientras sus socios comerciales reconsideran contratos y las agencias federales se distancian de su chatbot insignia, Claude. Esta orden judicial proporciona a Anthropic un alivio inmediato frente al daño reputacional y la incertidumbre comercial mientras se desarrolla la batalla legal.

Detalles del fallo

El juez Alsup determinó que el uso de libros adquiridos legalmente por Anthropic para el entrenamiento de inteligencia artificial califica como uso justo; sin embargo, el uso de libros pirateados podría enfrentar sanciones penales en un juicio programado para diciembre. Por su parte, el juez Lin suspendió la designación de Trump, otorgando un respiro temporal a Anthropic frente a las prohibiciones contractuales del Pentágono y al daño a su reputación.

Anthropic sostiene que la inclusión en la lista negra por parte de la administración Trump fue motivada políticamente, mientras que el Pentágono argumenta que Claude representa riesgos legítimos relacionados con la integridad de los datos y la influencia extranjera. La orden judicial plantea interrogantes sobre si las restricciones amplias sobre las asociaciones del sector privado son proporcionales o punitivas.

Implicaciones más amplias

Este caso pone de relieve las tensiones entre innovación y supervisión, con resultados que podrían redefinir el desarrollo de inteligencia artificial, así como las leyes de derechos de autor y políticas de seguridad nacional. Anthropic argumenta que su situación actual causa "daño inmediato e irreparable". Su equipo legal sostiene que esta designación carece de fundamento en preocupaciones legítimas de seguridad nacional.

A medida que avanza el proceso judicial, también surgen preguntas más amplias sobre el alcance del gobierno en la regulación de tecnologías emergentes. Anthropic está lidiando con litigios paralelos en un tribunal de Washington D.C., donde afirma que las acciones del Pentágono violan tanto la Primera Enmienda como las leyes federales sobre adquisiciones.

Defensa del Pentágono

El Departamento de Defensa ha rechazado estas afirmaciones, argumentando que los comentarios públicos realizados por la administración no constituyen acciones regulatorias formales y no pueden ser base para reclamaciones legales. El Pentágono defiende que sus preocupaciones sobre los modelos de IA de Anthropic están fundamentadas en riesgos reales para la seguridad.

No obstante, durante una reciente audiencia, la jueza Lin mostró escepticismo ante las medidas extremas impuestas, cuestionando si eran realmente proporcionales a las amenazas alegadas. Si el Pentágono considera a Claude un riesgo para la seguridad, podría simplemente dejar de usar esa tecnología en lugar de imponer restricciones severas a asociaciones privadas.

Reacción de Anthropic

Un portavoz de Anthropic expresó: "Estamos agradecidos con el tribunal por actuar rápidamente y satisfechos con su acuerdo en que es probable que Anthropic tenga éxito en los méritos". A pesar del desafío legal necesario para protegerse a sí mismos y a sus socios comerciales, su enfoque sigue siendo trabajar constructivamente con el gobierno para asegurar beneficios seguros y confiables del AI para todos los estadounidenses.

Aunque ha enfatizado su compromiso con el desarrollo ético del AI utilizando datos obtenidos legalmente, Anthropic enfrenta otro litigio relacionado con infracciones de derechos autorales debido al uso indebido de libros pirateados para entrenar Claude.

Próximos pasos

Aunque esta orden judicial proporciona un alivio temporal, la lucha legal está lejos de concluir. Un juicio programado para diciembre evaluará posibles daños estatutarios por infracción intencional de derechos autorales. Mientras tanto, el tribunal continuará considerando los argumentos constitucionales y legales en este caso paralelo.

A corto plazo, Anthropic puede respirar más tranquilo; sin embargo, el debate sobre el papel del AI en cuestiones nacionales como seguridad e propiedad intelectual apenas comienza. Los resultados podrían tener repercusiones significativas en cómo se desarrollan futuras regulaciones gubernamentales sobre tecnologías emergentes.

TEMAS RELACIONADOS:


Noticias relacionadas