Federalny sędzia w San Francisco tymczasowo zablokował w czwartek decyzję Pentagonu, który uznał Anthropic za „ryzyko dla łańcucha dostaw”. Sąd uznał, że działania władz mogły służyć ukaraniu firmy za jej publiczne stanowisko w sprawie bezpieczeństwa AI, a nie ochronie bezpieczeństwa narodowego. Postanowienie obejmuje też polecenie Donalda Trumpa, by wszystkie agencje federalne przestały korzystać z technologii Anthropic.

Sąd uznał, że decyzja mogła być formą odwetu

Rita Lin stwierdziła, że działania władz wyglądały na próbę ukarania Anthropic za publiczne wypowiedzi o bezpieczeństwie AI, a nie na krok związany z ochroną bezpieczeństwa narodowego.

Spór zaczął się od kontraktu za 200 milionów dolarów

Rozmowy z Pentagonem dotyczyły użycia modelu Claude w zastosowaniach wojskowych, w tym przy broni autonomicznej i masowej inwigilacji.

Zakaz objął też inne agencje federalne

Nakaz Donalda Trumpa zatrzymał korzystanie z technologii Anthropic przez wszystkie agencje federalne, co firma uznała za źródło szkody biznesowej.

Sprawa może mieć szersze skutki dla branży

Wyrok obserwują firmy technologiczne i prawnicy, bo może przesądzić, czy administracja Trumpa użyje podobnej klasyfikacji wobec innych spółek.

Anthropic zostało w czwartek tymczasowo objęte ochroną sądową po tym, jak federalny sędzia w San Francisco zablokował decyzję Pentagonu o uznaniu firmy za „ryzyko dla łańcucha dostaw”. Sędzia uznała, że działania rządu wyglądały na próbę ukarania spółki za publiczne stanowisko w sprawie bezpieczeństwa sztucznej inteligencji, a nie na krok służący ochronie bezpieczeństwa narodowego. Rita Lin z U.S. District Court for the Northern District of California wydała wstępny nakaz sądowy, który zatrzymuje także polecenie prezydenta Donalda Trumpa, by wszystkie agencje federalne zaprzestały korzystania z technologii Anthropic. Orzeczenie nie jest decyzją końcową, bo sprawa nadal się toczy. Sędzia wstrzymała wykonanie postanowienia na tydzień, aby Departament Sprawiedliwości mógł złożyć odwołanie, i nakazała rządowi przedstawić do 6 kwietnia 2026 roku raport o tym, jak zamierza je wykonać. Spór wywołał kontrakt obronny wart 200 milionów dolarów Konflikt zaczął się od negocjacji nad kontraktem obronnym między Anthropic a Pentagonem, wartym 200 (million USD) — 200 milionów dolarów. W ich trakcie dyrektor generalny Anthropic Dario Amodei nalegał, aby model AI firmy, Claude, nie był wykorzystywany do w pełni autonomicznej broni śmiercionośnej ani do masowej inwigilacji obywateli Stanów Zjednoczonych. Departament Obrony odpowiedział, że żaden prywatny wykonawca nie może narzucać warunków, na jakich wojsko używa kupowanej technologii, i że to dowódcy wojskowi, a nie dostawcy, mają decydować, co jest bezpieczne dla systemów AI w działaniach operacyjnych. Gdy rozmowy utknęły w martwym punkcie, sekretarz obrony Pete Hegseth uznał Anthropic za „ryzyko dla łańcucha dostaw”. Taka klasyfikacja w praktyce odcina firmę od interesów z podmiotami rządu USA i wcześniej nigdy nie została zastosowana wobec amerykańskiej spółki. Zwykle rezerwuje się ją dla zagranicznych firm powiązanych z przeciwnikami Stanów Zjednoczonych, takich jak chiński Huawei. Następnie prezydent Trump nakazał wszystkim agencjom federalnym natychmiastowe zaprzestanie korzystania z technologii Anthropic, co pogłębiło straty wizerunkowe i biznesowe firmy. Anthropic przekonywało w sądzie, że klasyfikacja powoduje „nieodwracalną szkodę”, ponieważ partnerzy biznesowi zaczęli ponownie oceniać umowy, a agencje federalne usuwały Claude ze swoich systemów. Określenie „ryzyko dla łańcucha dostaw” to narzędzie bezpieczeństwa narodowego używane przez rząd Stanów Zjednoczonych do ograniczania zakupów od podmiotów uznanych za zagrożenie dla infrastruktury krytycznej lub systemów obronnych. Przed sprawą Anthropic etykieta ta była stosowana wyłącznie wobec firm zagranicznych, przede wszystkim wobec chińskiego przedsiębiorstwa telekomunikacyjnego Huawei, które trafiło na czarną listę rządu USA w 2019 roku. Sprawa stawia też szersze pytanie o to, czy administracja Trumpa mogłaby używać tego samego oznaczenia wobec innych firm technologicznych, które publicznie nie zgadzają się z decyzjami władz dotyczącymi sposobu wykorzystania ich produktów. Sędzia przywołała słowa Trumpa i Hegsetha jako dowód odwetu W uzasadnieniu sędzia Lin odwołała się bezpośrednio do publicznych wypowiedzi prezydenta Trumpa i sekretarza obrony Pete’a Hegsetha. Nazywali oni Anthropic „poza kontrolą” i „arogancką”, a stanowisko firmy w sprawie bezpieczeństwa określali jako „obłudną retorykę”, która miała być próbą „szantażowania” rządu. Sędzia napisała, że materiał dowodowy pozwala wysnuć „wniosek, iż Anthropic jest karane za krytykowanie w prasie stanowiska rządu w sprawie kontraktów”. Dodała, że oznaczenie jako ryzyka dla łańcucha dostaw zwykle rezerwuje się dla zagranicznych służb wywiadowczych i terrorystów, a nie dla amerykańskich firm, i że szerokie działania podjęte wobec Anthropic „nie wydają się być skierowane na deklarowane przez rząd interesy bezpieczeństwa narodowego”. Lin napisała też wprost: „Jeżeli obawą jest integralność operacyjnego łańcucha dowodzenia, Departament Wojny mógłby po prostu przestać używać Claude. Tymczasem środki te wyglądają na zaprojektowane tak, by ukarać Anthropic”. Odrzuciła również to, co nazwała „orwellowską koncepcją”, zgodnie z którą amerykańska firma mogłaby zostać uznana za potencjalnego przeciwnika tylko dlatego, że nie zgadza się z decyzjami władz. Pentagon argumentował w sądzie, że Anthropic stanowi „nieakceptowalne ryzyko” dla bezpieczeństwa narodowego, ponieważ firma mogłaby teoretycznie wyłączyć lub zmienić swoją technologię tak, by służyła jej własnym interesom, a nie priorytetom kraju w czasie wojny. Microsoft, ACLU i emerytowani wojskowi poparli Anthropic w sądzie Anthropic złożyło dwa oddzielne pozwy przeciwko administracji Trumpa — jeden w Northern District of California i węższy, równoległy, który nadal czeka na rozstrzygnięcie przed U.S. Court of Appeals for the District of Columbia Circuit. Firma zarzuciła naruszenie Pierwszej Poprawki, czyli prawa do wolności słowa, oraz Piątej Poprawki, czyli prawa do należytego procesu, argumentując, że nie dostała żadnej możliwości zakwestionowania decyzji przed jej zastosowaniem. Wsparcie dla Anthropic zgłosiła szeroka koalicja organizacji, w tym Microsoft, American Civil Liberties Union, emerytowani dowódcy wojskowi, a także pracownicy OpenAI i Google. Departament Sprawiedliwości nie skomentował od razu czwartkowego orzeczenia, ale wcześniej sygnalizował, że złoży apelację. Rzeczniczka Anthropic Danielle Cohen przyjęła decyzję z zadowoleniem. „Jesteśmy wdzięczni sądowi za szybkie działanie i zadowoleni, że zgodził się, iż Anthropic prawdopodobnie wygra sprawę co do meritum. Choć ten proces był konieczny, by chronić Anthropic, naszych klientów i partnerów, nadal koncentrujemy się na konstruktywnej współpracy z rządem, by wszyscy Amerykanie mogli korzystać z bezpiecznej i niezawodnej sztucznej inteligencji.” — Danielle Cohen via The Verge Wyrok ma znaczenie wykraczające poza samą firmę, bo analitycy prawni i spółki technologiczne obserwują, czy administracja Trumpa mogłaby użyć tego samego oznaczenia bezpieczeństwa narodowego wobec innych firm, które publicznie kwestionują sposób wykorzystania ich produktów przez państwo.

Mentioned People

  • Rita Lin — Sędzia federalna dla Northern District of California, nominowana przez Joe Bidena w 2022 roku.
  • Donald Trump — 47. prezydent Stanów Zjednoczonych
  • Pete Hegseth — 29. sekretarz obrony Stanów Zjednoczonych, urzędujący od 2025 roku.
  • Dario Amodei — Amerykański badacz i przedsiębiorca z branży sztucznej inteligencji, współzałożyciel i prezes Anthropic.
  • Danielle Cohen — Rzeczniczka Anthropic

Sources: 9 articles