Une juge fédérale américaine a temporairement suspendu, jeudi, la mise à l’index d’Anthropic par le Pentagone. Elle estime que les mesures prises par l’administration Trump ressemblent à des représailles illégales après les critiques publiques de l’entreprise sur ses exigences contractuelles. L’ordonnance entre en vigueur le 2 avril 2026, laissant au gouvernement sept jours pour faire appel.

Une injonction préliminaire contre le Pentagone

Rita F. Lin a interdit provisoirement au gouvernement de bloquer les produits d’Anthropic et de la qualifier de risque pour la sécurité nationale.

Un litige né du refus d’ouvrir Claude à la surveillance

Anthropic avait refusé d’assouplir son contrat pour permettre l’usage de Claude dans la surveillance de masse et les armes autonomes.

La juge voit une sanction liée à la liberté d’expression

Le tribunal estime à ce stade qu’Anthropic a probablement été pénalisée pour avoir critiqué publiquement la position de l’exécutif.

L’entreprise dit vouloir poursuivre ses échanges avec Washington

Anthropic affirme rester disposée à travailler avec le gouvernement malgré la procédure en cours.

Une juge fédérale américaine a temporairement suspendu, jeudi, la mise à l’index d’Anthropic par le Pentagone, estimant que les mesures prises par l’administration Trump semblaient constituer des représailles illégales contre l’entreprise pour avoir critiqué publiquement ses exigences contractuelles. Rita F. Lin, juge à la U.S. District Court for the Northern District of California, a rendu une injonction préliminaire interdisant au gouvernement d’empêcher l’utilisation des produits d’Anthropic dans les services fédéraux et de qualifier officiellement l’entreprise de « supply chain risk to national security ». L’ordonnance prendra effet dans sept jours, le 2 avril 2026, ce qui laisse au gouvernement le temps de faire appel. Dans sa décision, Lin a écrit que les mesures prises par le gouvernement « semblent destinées à punir Anthropic » et que la qualification de risque pour la chaîne d’approvisionnement était contraire au droit, arbitraire et capricieuse.

Le différend est né du refus de lever les garde-fous sur les armes et la surveillance Le conflit entre Anthropic et l’administration Trump a commencé lorsque l’entreprise a refusé de modifier les termes de son contrat afin d’autoriser le gouvernement à utiliser son modèle d’IA Claude pour la surveillance de masse des citoyens américains et pour le développement d’armes autonomes. En réponse, le président Donald Trump a ordonné aux agences fédérales de suspendre tous les contrats avec l’entreprise. Le Pentagon a ensuite officiellement désigné Anthropic comme un risque pour la chaîne d’approvisionnement, une étiquette généralement réservée à des entités basées dans des pays adversaires des États-Unis, comme la Chine, et considérées comme une menace pour la sécurité nationale. Le secrétaire à la Défense Pete Hegseth a averti les autres fournisseurs et sous-traitants du secteur qu’ils devaient rompre tout lien avec Anthropic s’ils voulaient continuer à travailler avec le gouvernement. Dans un message publié sur X, Pete Hegseth avait estimé que l’entreprise avait « donné un modèle de manuels sur l’arrogance et la trahison ainsi qu’un cas d’école de la façon de ne pas faire des affaires avec le gouvernement des États-Unis ou le Pentagone ». Le département de la Défense a soutenu dans ses écritures que le fait de laisser Anthropic continuer à accéder à ses infrastructures militaires créerait un « risque inacceptable » pour ses chaînes d’approvisionnement.

La juge invoque le Premier Amendement et qualifie la décision d’« orwellienne » La décision de Rita F. Lin s’est concentrée sur le First Amendment retaliation, la juge estimant qu’Anthropic semblait avoir été sanctionnée précisément parce qu’elle attirait l’attention du public sur la position du gouvernement en matière de contrats. « Punir Anthropic pour avoir attiré l’attention du public sur la position du gouvernement en matière de contrats relève d’une représaille classique et illégale au titre du Premier Amendement », a écrit Lin dans sa décision. La juge a également relevé que le gouvernement avait soutenu qu’Anthropic avait montré des tendances subversives en « contestant » l’usage de sa technologie, un raisonnement qu’elle a rejeté en des termes très fermes. « Rien dans la loi applicable n’appuie l’idée orwellienne selon laquelle une entreprise américaine peut être qualifiée d’adversaire potentiel et de saboteur des États-Unis pour avoir exprimé son désaccord avec le gouvernement », a-t-elle écrit. Lin a aussi indiqué qu’Anthropic « a démontré qu’elle avait de fortes chances de l’emporter sur son argument fondé sur le Premier Amendement », une appréciation importante au stade de l’injonction préliminaire. L’entreprise avait déposé sa plainte le 9 mars 2026, faisant valoir que la désignation était illégale, dépourvue de fondement factuel et incompatible avec les éloges formulés par l’armée à l’égard de Claude par le passé.

Avant que le différend n’éclate, Anthropic était la seule société d’IA autorisée pour un usage militaire confidentiel par le département américain de la Défense, selon des informations citées dans les articles sources. Après la dégradation des relations entre Anthropic et le Pentagone, OpenAI, l’entreprise derrière ChatGPT, a signé un accord distinct avec le département de la Défense. Anthropic fonctionne comme une société à mission et a intégré dans ses modèles Claude des restrictions de sécurité limitant leur utilisation dans certains scénarios de combat. L’entreprise a déposé sa plainte contre le Pentagone le 9 mars 2026, contestant la désignation comme risque pour la chaîne d’approvisionnement au motif qu’elle était illégale et incompatible avec les évaluations antérieures de Claude par l’armée.

Anthropic dit vouloir continuer à travailler avec le gouvernement malgré le bras de fer judiciaire Anthropic a réagi à la décision avec un optimisme mesuré, présentant l’ordonnance du tribunal comme une étape nécessaire pour protéger ses clients et ses partenaires plutôt que comme une marque d’hostilité envers le gouvernement. Un porte-parole d’Anthropic a déclaré que l’entreprise était « reconnaissante au tribunal d’avoir agi rapidement et satisfaite qu’il estime qu’Anthropic a de fortes chances de l’emporter sur le fond ». „Bien que cette affaire ait été nécessaire pour protéger Anthropic, nos clients et nos partenaires, notre priorité reste de travailler de manière productive avec le gouvernement afin que tous les Américains bénéficient d’une IA sûre et fiable.” — Anthropic spokesperson via Deutsche Welle Le directeur général Dario Amodei avait auparavant indiqué que l’entreprise n’avait « d’autre choix que de contester » la désignation devant les tribunaux, la jugeant juridiquement infondée. La procédure engagée par l’entreprise se poursuit, et Rita F. Lin n’a pas encore rendu de décision finale sur le fond. L’injonction préliminaire constitue une première victoire judiciaire pour Anthropic, mais la question plus large de savoir si les mesures du Pentagone étaient illégales sera tranchée lors des prochaines étapes de la procédure.

Mentioned People

  • Donald Trump — 47. prezydent Stanów Zjednoczonych
  • Pete Hegseth — 29. sekretarz obrony Stanów Zjednoczonych
  • Rita F. Lin — sędzia federalna w Sądzie Okręgowym Stanów Zjednoczonych dla Północnego Dystryktu Kalifornii
  • Dario Amodei — prezes Anthropic

Sources: 3 articles