Un juge fédéral a bloqué le Pentagone de qualifier Anthropic de risque de chaîne d’approvisionnement, décidant jeudi que la campagne du gouvernement contre la société d’IA violait ses droits en vertu du premier amendement et de la procédure régulière. La juge de district des États-Unis Rita Lin a émis une injonction préliminaire du district nord de la Californie deux jours après avoir entendu les plaidoiries orales des deux parties, dans une affaire que les observateurs disent rendue inévitable par les propres documents du gouvernement. “Rien dans le statut en vigueur ne soutient la notion orwellienne qu’une entreprise américaine peut être étiquetée comme un potentiel adversaire et saboteur des États-Unis pour avoir exprimé un désaccord avec le gouvernement,” a écrit la juge Lin.
Le dossier interne a été fatal à l’affaire du gouvernement, selon Andrew Rossow, avocat en affaires publiques et PDG d’AR Media Consulting, qui a déclaré à Decrypt que la désignation avait été “déclenchée par la conduite de la presse, et non par une analyse de sécurité.” “Le gouvernement a essentiellement écrit son propre motif, et c’était de la représaille,” a déclaré Rossow. Le différend porte sur un contrat de deux ans de 200 millions de dollars attribué à Anthropic en juillet 2025 par le Bureau du numérique et de l’intelligence artificielle du ministère de la Guerre.
Les négociations pour déployer Claude sur la plateforme GenAI.Mil du département ont échoué après que les deux parties n’ont pas réussi à s’accorder sur des restrictions d’utilisation. Anthropic a insisté sur deux conditions : que Claude ne soit pas utilisé pour la surveillance de masse des Américains ou pour un usage létal dans la guerre autonome, arguant que le modèle n’était pas encore sûr pour ces deux usages. Lors d’une réunion le 24 février, le secrétaire à la Guerre Pete Hegseth a dit aux représentants d’Anthropic que si la société ne levait pas ses restrictions d’ici le 27 février, le département la désignerait immédiatement comme un risque de chaîne d’approvisionnement. Anthropic a refusé de se conformer. Le même jour, le président Trump a publié une directive sur Truth Social ordonnant à chaque agence fédérale de “cesser immédiatement” d’utiliser la technologie de la société, qualifiant Anthropic de “société radicale de gauche, woke.” Un peu plus d’une heure plus tard, Hegseth a décrit la position d’Anthropic comme une “maîtrise de l’arrogance et de la trahison,” ordonnant qu’aucun entrepreneur travaillant avec l’armée ne puisse mener des activités commerciales avec la société. La désignation formelle de risque de chaîne d’approvisionnement a suivi par une lettre le 3 mars. Anthropic a poursuivi le gouvernement le 9 mars, alléguant des violations du premier amendement, de la procédure régulière et de la loi sur la procédure administrative. “Punir Anthropic pour avoir attiré l’attention du public sur la position contractuelle du gouvernement est une représaille classique illégale en vertu du premier amendement,” a écrit la juge Lin dans l’ordonnance de jeudi.
L’ordonnance, qui a été suspendue pendant sept jours, bloque les trois actions gouvernementales, exige un rapport de conformité d’ici le 6 avril et restaure le statu quo avant les événements du 27 février. Armer la loi La désignation de “risque de chaîne d’approvisionnement” a historiquement été réservée aux agences de renseignement étrangères, aux terroristes et à d’autres acteurs hostiles. Elle n’avait jamais été appliquée à une entreprise nationale avant Anthropic. Les entrepreneurs de la défense ont commencé à évaluer et dans de nombreux cas à mettre fin à leur dépendance vis-à-vis d’Anthropic dans les semaines qui ont suivi, a noté l’ordonnance de la juge Lin. Et la posture du gouvernement pourrait avoir des conséquences imprévues, soutiennent les experts. En effet, la décision de jeudi pourrait inciter les entreprises d’IA “à formaliser des garde-fous éthiques lorsqu’elles travaillent avec les gouvernements,” a déclaré Pichapen Prateepavanich, stratège politique et fondatrice de l’entreprise d’infrastructure Gather Beyond, à Decrypt. Dans une certaine mesure, la décision suggère également que les entreprises “peuvent établir des limites d’utilisation claires sans déclencher automatiquement des actions réglementaires punitives,” a-t-elle dit. Mais cela “ne supprime pas la tension,” a-t-elle ajouté. Ce que la décision limite, c’est “la capacité d’escalader ce désaccord en une exclusion ou un étiquetage plus large qui semble être de la représaille.” Néanmoins, l’application de l’autorité législative actuelle pour désigner une entreprise comme un risque de chaîne d’approvisionnement “parce qu’elle a refusé de supprimer des garde-fous de sécurité” n’est pas une extension du statut de risque de chaîne d’approvisionnement, a expliqué Rossow. Au lieu de cela, cela fonctionne comme une “armement” de la loi.
“C’est une partie d’un schéma de comportement continu de la Maison Blanche chaque fois qu’elle est contestée, entraînant des menaces et de l’extorsion gouvernementale disproportionnées, émotionnellement motivées et biaisées,” a-t-il ajouté. Si la “théorie” du gouvernement est acceptée, cela créerait un précédent “dangereux” selon lequel les entreprises d’IA peuvent être mises sur liste noire pour des politiques de sécurité que le gouvernement n’aime pas, “avant qu’un quelconque dommage ne se produise,” sans procédure régulière, sous le prétexte de la sécurité nationale, a déclaré Rossow.