Une juge fédérale de San Francisco a suspendu provisoirement, jeudi, la décision du Pentagone de classer Anthropic comme « risque pour la chaîne d’approvisionnement ». Elle a estimé que les actes du gouvernement semblaient viser à sanctionner l’entreprise pour sa position publique sur la sécurité de l’IA plutôt qu’à protéger la sécurité nationale. L’ordonnance est suspendue une semaine pour laisser au ministère de la justice le temps de faire appel.

Une suspension provisoire décidée par Rita Lin

La juge fédérale a bloqué pour l’instant la désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement » et a aussi suspendu l’ordre présidentiel demandant l’arrêt de l’usage de sa technologie par les agences fédérales.

Un différend lié à un contrat de 200 millions de dollars

Le litige est né d’un contrat de défense de 200 millions de dollars, après des désaccords sur les usages possibles de Claude dans le cadre militaire.

Un signal plus large pour le secteur technologique

L’affaire pourrait peser sur la manière dont l’administration Trump emploie les outils de sécurité nationale contre des entreprises technologiques en désaccord avec Washington.

Un contrat de 200 millions de dollars à l’origine du bras de fer Le conflit remonte à des négociations autour d’un contrat de défense de 200 (million USD) — 200 millions de dollars entre Anthropic et le Pentagone. Au cours de ces discussions, le directeur général d’Anthropic, Dario Amodei, a soutenu que le modèle d’IA de l’entreprise, Claude, ne pouvait pas être utilisé pour des armes létales entièrement autonomes ni pour la surveillance de masse des citoyens américains. Le département de la défense a répliqué qu’aucun prestataire privé ne pouvait imposer les conditions dans lesquelles l’armée utilise une technologie qu’elle achète, estimant que les commandants militaires, et non les fournisseurs, devaient décider de ce qui est sûr pour l’IA dans un cadre opérationnel.

Après l’échec des négociations, le secrétaire à la défense, Pete Hegseth, a qualifié Anthropic de « risque pour la chaîne d’approvisionnement », une désignation qui revient en pratique à écarter une entreprise des relations commerciales avec les entités du gouvernement des États-Unis et qui n’avait jamais été appliquée auparavant à une société américaine. Cette étiquette est en général réservée à des entreprises étrangères liées à des adversaires des États-Unis, comme Huawei en Chine. Donald Trump a ensuite ordonné à toutes les agences fédérales de cesser immédiatement d’utiliser la technologie d’Anthropic, aggravant encore le préjudice réputationnel et commercial pour l’entreprise. Devant le tribunal, Anthropic a soutenu que cette désignation lui causait un « préjudice irréparable », ses partenaires commerciaux réexaminant des contrats et des agences fédérales retirant Claude de leurs systèmes.

La désignation de « risque pour la chaîne d’approvisionnement » est un outil de sécurité nationale utilisé par le gouvernement des États-Unis pour restreindre les achats auprès d’entités jugées susceptibles de menacer les infrastructures critiques ou les systèmes de défense. Avant l’affaire Anthropic, cette mesure n’avait été appliquée qu’à des entreprises étrangères, notamment au groupe de télécommunications chinois Huawei, inscrit sur une liste noire du gouvernement des États-Unis en 2019. L’affaire pose plus largement la question de savoir si l’administration Trump pourrait utiliser la même désignation contre d’autres entreprises technologiques qui expriment publiquement leur désaccord avec la manière dont leurs produits sont utilisés par le gouvernement.

La juge invoque les propos de Trump et Hegseth comme indices de représailles Dans sa décision écrite, la juge Rita Lin a cité directement des déclarations publiques de Donald Trump et de Pete Hegseth, dans lesquelles ils décrivaient Anthropic comme « hors de contrôle » et « arrogante » et présentaient la position de l’entreprise sur la sécurité comme une « rhétorique moralisatrice » relevant d’une tentative de « faire pression » sur le gouvernement. La juge a écrit que le dossier judiciaire permettait de déduire qu’« Anthropic est punie pour avoir critiqué dans la presse la position du gouvernement dans les négociations contractuelles ». Elle a ajouté que la désignation de risque pour la chaîne d’approvisionnement est normalement réservée à des services de renseignement étrangers et à des terroristes, et non à des entreprises américaines, et que les mesures larges prises contre Anthropic ne semblaient pas « viser les intérêts déclarés du gouvernement en matière de sécurité nationale ».

Rita Lin a écrit sans détour : « Si la préoccupation concerne l’intégrité de la chaîne de commandement opérationnelle, le département de la guerre pourrait simplement cesser d’utiliser Claude. Au lieu de cela, ces mesures semblent conçues pour punir Anthropic. » Elle a également rejeté ce qu’elle a qualifié de « notion orwellienne » selon laquelle une entreprise américaine pourrait être classée comme adversaire potentiel simplement parce qu’elle exprime un désaccord avec les décisions du gouvernement. Le Pentagone avait soutenu devant la justice qu’Anthropic représentait un « risque inacceptable » pour la sécurité nationale, au motif que l’entreprise pourrait, en théorie, désactiver ou modifier sa technologie pour servir ses propres intérêts plutôt que les priorités du pays en temps de guerre.

Microsoft, l’ACLU et des responsables militaires à la retraite soutiennent Anthropic Anthropic a déposé deux recours distincts contre l’administration Trump — l’un devant la juridiction du Northern District of California et un autre, plus limité, toujours pendant devant la U.S. Court of Appeals for the District of Columbia Circuit — en invoquant des atteintes à ses droits à la liberté d’expression garantis par le Premier amendement et à ses droits au respect de la procédure régulière garantis par le Cinquième amendement, au motif qu’elle n’a pas eu la possibilité de contester la désignation avant son application. Une large coalition d’organisations a déposé des mémoires amicus à l’appui d’Anthropic, parmi lesquelles Microsoft, l’American Civil Liberties Union et des responsables militaires à la retraite, ainsi que des employés d’OpenAI et de Google.

Le département de la justice n’a pas commenté immédiatement la décision de jeudi mais avait indiqué auparavant qu’il ferait appel. La porte-parole d’Anthropic, Danielle Cohen, a salué cette décision. „Nous sommes reconnaissants à la cour d’avoir agi rapidement et heureux qu’elle estime qu’Anthropic a de fortes chances d’obtenir gain de cause sur le fond. Si cette affaire était nécessaire pour protéger Anthropic, nos clients et nos partenaires, notre priorité reste de travailler de manière constructive avec le gouvernement afin que tous les Américains bénéficient d’une IA sûre et fiable.” — Danielle Cohen via The Verge L’issue de ce dossier dépasse le seul cas d’Anthropic, alors que des analystes juridiques et des entreprises technologiques observent si l’administration Trump pourrait recourir à la même désignation de sécurité nationale contre d’autres sociétés qui contestent publiquement l’usage par le gouvernement de leurs produits.

Mentioned People

  • Rita Lin — Sędzia federalna dla Northern District of California, nominowana przez Joe Bidena w 2022 roku.
  • Donald Trump — 47. prezydent Stanów Zjednoczonych
  • Pete Hegseth — 29. sekretarz obrony Stanów Zjednoczonych, urzędujący od 2025 roku.
  • Dario Amodei — Amerykański badacz i przedsiębiorca z branży sztucznej inteligencji, współzałożyciel i prezes Anthropic.
  • Danielle Cohen — Rzeczniczka Anthropic

Sources: 9 articles