Ein Bundesgericht in San Francisco hat die Pentagon-Einstufung von Anthropic als „Lieferkettenrisiko“ vorläufig gestoppt. Die Richterin sieht Anhaltspunkte dafür, dass die Regierung das Unternehmen eher für seine öffentliche Haltung zu KI-Sicherheit bestrafen wollte als die nationale Sicherheit zu schützen. Zugleich bleibt das Hauptverfahren offen, und die Regierung muss bis zum 6. April 2026 Bericht erstatten.
Einstufung vorläufig gestoppt
Das Gericht untersagt dem Pentagon vorerst, Anthropic als Lieferkettenrisiko zu behandeln. Auch Trumps Anordnung zum Stopp der Nutzung wurde ausgesetzt.
Vorwurf der Vergeltung
Richterin Lin sieht Anhaltspunkte dafür, dass die Maßnahmen wegen der öffentlichen Kritik von Anthropic an der KI-Sicherheit ergriffen wurden.
Streit um 200-Millionen-Dollar-Vertrag
Auslöser waren gescheiterte Gespräche über einen Vertrag mit dem Pentagon, bei denen Anthropic Grenzen für den Einsatz von Claude benannte.
Breite Unterstützung für Anthropic
Microsoft, die ACLU und weitere Akteure stellten sich in Amicus-Eingaben hinter das Unternehmen.
Folgen für andere Tech-Firmen
Der Fall könnte darüber hinausweisen, wie weit die Regierung bei der Nutzung nationaler Sicherheitsinstrumente gegen Unternehmen gehen kann.
Ein Bundesrichter in San Francisco hat am Donnerstag die Einstufung von Anthropic durch das Pentagon als „Lieferkettenrisiko“ vorläufig gestoppt. Nach Ansicht des Gerichts schienen die Maßnahmen der Regierung darauf ausgerichtet zu sein, das Unternehmen für seine öffentliche Haltung zur Sicherheit von KI zu bestrafen, und nicht darauf, die nationale Sicherheit zu schützen. Richterin Rita Lin vom U.S. District Court for the Northern District of California erließ eine einstweilige Verfügung, die auch eine Anweisung von Präsident Donald Trump stoppt, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollten. Es handelt sich nicht um eine endgültige Entscheidung, da das Verfahren weiterläuft. Lin setzte ihre Anordnung für eine Woche aus, damit das Justizministerium Berufung einlegen kann, und verlangte von der Regierung bis zum 6. April 2026 einen Bericht darüber, wie sie die Entscheidung umzusetzen gedenkt.
Ein Streit um einen Vertrag über 200 Millionen Dollar löste die Auseinandersetzung ausDer Konflikt geht auf Verhandlungen über einen Vertrag im Wert von 200 (million USD) — 200 Millionen US-Dollar zwischen Anthropic und dem Pentagon zurück. Dabei hatte Anthropic-Chef Dario Amodei darauf bestanden, dass das KI-Modell Claude nicht für vollständig autonome tödliche Waffen oder für die Massenüberwachung amerikanischer Bürger eingesetzt werden dürfe. Das Verteidigungsministerium entgegnete, kein privater Auftragnehmer könne die Bedingungen diktieren, unter denen das Militär die von ihm gekaufte Technologie verwende. Entscheiden müssten vielmehr militärische Befehlshaber, nicht Anbieter, was KI in operativen Szenarien sicher leisten könne. Nachdem die Verhandlungen scheiterten, stufte Verteidigungsminister Pete Hegseth Anthropic als „Lieferkettenrisiko“ ein. Diese Einstufung schließt ein Unternehmen faktisch von Geschäften mit Stellen der US-Regierung aus und war zuvor noch nie auf ein amerikanisches Unternehmen angewendet worden. Üblicherweise ist sie ausländischen Firmen mit Verbindungen zu Gegnern der USA vorbehalten, etwa dem chinesischen Unternehmen Huawei. Präsident Trump ordnete anschließend an, dass alle Bundesbehörden die Nutzung von Anthropic-Technologie sofort einstellen sollten. Das verschärfte den Reputations- und wirtschaftlichen Schaden für das Unternehmen. Anthropic argumentierte vor Gericht, die Einstufung verursache „irreparablen Schaden“, weil Geschäftspartner Verträge neu prüften und Bundesbehörden Claude aus ihren Systemen entfernten.
Die Einstufung als „Lieferkettenrisiko“ ist ein Instrument der nationalen Sicherheit, das die US-Regierung nutzt, um Beschaffungen bei Akteuren zu beschränken, die eine Gefahr für kritische Infrastruktur oder Verteidigungssysteme darstellen sollen. Vor dem Fall Anthropic war die Bezeichnung ausschließlich auf ausländische Unternehmen angewendet worden, am bekanntesten auf den chinesischen Telekommunikationskonzern Huawei, der 2019 auf eine schwarze Liste der US-Regierung gesetzt wurde. Der Fall wirft weitergehende Fragen dazu auf, ob die Trump-Regierung dieselbe Einstufung gegen andere Technologieunternehmen einsetzen könnte, die öffentlich mit Regierungsentscheidungen darüber nicht einverstanden sind, wie ihre Produkte verwendet werden.
Richterin verweist auf eigene Worte von Trump und Hegseth als Hinweis auf VergeltungIn ihrer schriftlichen Entscheidung verwies Richterin Lin ausdrücklich auf öffentliche Äußerungen von Präsident Trump und Verteidigungsminister Pete Hegseth. Darin hätten sie Anthropic als „außer Kontrolle“ und „arrogant“ bezeichnet und die Sicherheitsposition des Unternehmens als „scheinheilige Rhetorik“ dargestellt, die auf einen Versuch hinauslaufe, die Regierung zu „überrumpeln“. Die Richterin schrieb, die Gerichtsakte stütze „die Schlussfolgerung, dass Anthropic dafür bestraft wird, dass es die Vertragsposition der Regierung in der Presse kritisiert hat“. Sie fügte hinzu, die Einstufung als Lieferkettenrisiko sei normalerweise ausländischen Geheimdiensten und Terroristen vorbehalten, nicht amerikanischen Unternehmen, und die weitreichenden Maßnahmen gegen Anthropic hätten „nicht den angegebenen nationalen Sicherheitsinteressen der Regierung gedient“. Lin formulierte es deutlich: „Wenn es um die Integrität der operativen Befehlskette geht, könnte das Department of War einfach aufhören, Claude zu nutzen. Stattdessen scheinen diese Maßnahmen darauf ausgelegt zu sein, Anthropic zu bestrafen.“ Sie wies außerdem zurück, was sie als „orwellsche Vorstellung“ bezeichnete, ein amerikanisches Unternehmen könne allein wegen abweichender Meinungen über Regierungsentscheidungen als möglicher Gegner eingestuft werden. Das Pentagon hatte vor Gericht argumentiert, Anthropic stelle ein „unannehmbares Risiko“ für die nationale Sicherheit dar, weil das Unternehmen seine Technologie theoretisch deaktivieren oder verändern könne, um in Kriegszeiten eigene Interessen statt der Prioritäten des Landes zu verfolgen.
Microsoft, ACLU und pensionierte Militärs stellen sich vor Gericht hinter AnthropicAnthropic hat zwei getrennte Klagen gegen die Trump-Regierung eingereicht — eine im Northern District of California und ein enger gefasster Parallelfall, der noch vor dem U.S. Court of Appeals for the District of Columbia Circuit anhängig ist. Das Unternehmen macht Verstöße gegen seine Rechte aus dem ersten Verfassungszusatz auf freie Meinungsäußerung und gegen das im fünften Verfassungszusatz verankerte Recht auf ein ordnungsgemäßes Verfahren geltend. Begründung: Vor der Einstufung habe es keine Gelegenheit erhalten, sich dazu zu äußern. Eine breite Koalition von Organisationen reichte Amicus Curiae ein, darunter Microsoft, die American Civil Liberties Union und pensionierte Militärs sowie Beschäftigte von OpenAI und Google. Das Justizministerium äußerte sich am Donnerstag zunächst nicht zu der Entscheidung, hatte aber zuvor angekündigt, Berufung einzulegen. Anthropic-Sprecherin Danielle Cohen begrüßte den Beschluss. „Wir sind dem Gericht dankbar, dass es schnell gehandelt hat, und begrüßen, dass es offenbar der Ansicht ist, Anthropic werde voraussichtlich in der Sache obsiegen. Auch wenn dieser Fall notwendig war, um Anthropic, unsere Kunden und unsere Partner zu schützen, bleibt unser Fokus darauf gerichtet, konstruktiv mit der Regierung zusammenzuarbeiten, damit alle Amerikaner von sicherer, verlässlicher KI profitieren.” — Danielle Cohen via The Verge Das Ergebnis hat Bedeutung über Anthropic hinaus, weil Rechtsanalysten und Technologieunternehmen aufmerksam verfolgen, ob die Trump-Regierung dieselbe nationale Sicherheitskategorie auch gegen andere Firmen einsetzen könnte, die öffentlich den staatlichen Umgang mit ihren Produkten kritisieren.
Mentioned People
- Rita Lin — Sędzia federalna dla Northern District of California, nominowana przez Joe Bidena w 2022 roku.
- Donald Trump — 47. prezydent Stanów Zjednoczonych
- Pete Hegseth — 29. sekretarz obrony Stanów Zjednoczonych, urzędujący od 2025 roku.
- Dario Amodei — Amerykański badacz i przedsiębiorca z branży sztucznej inteligencji, współzałożyciel i prezes Anthropic.
- Danielle Cohen — Rzeczniczka Anthropic
Sources: 9 articles
- Streit um KI im Militär: Gericht blockiert Pentagon-Vorgehen gegen KI-Firma Anthropic (ZEIT ONLINE)
- Gericht blockiert Pentagon-Vorgehen gegen KI-Firma Anthropic (Süddeutsche Zeitung)
- Gericht blockiert Pentagon-Vorgehen gegen KI-Firma Anthropic (stern.de)
- US judge suspends government sanctions on Anthropic (RTE.ie)
- Anthropic wins injunction against Trump administration over Defense Department saga | TechCrunch (TechCrunch)
- Judge rejects Pentagon's attempt to 'cripple' Anthropic (BBC)
- KI: Gericht stoppt vorerst Pentagon-Sperre gegen KI-Firma Anthropic (Handelsblatt)
- Judge sides with Anthropic to temporarily block the Pentagon's ban (The Verge)
- Judge blocks Pentagon from labeling Anthropic a supply chain risk (The Independent)
- Juíza contraria Trump e impede que a Casa Branca classifique a Anthropic como um "risco para a cadeia de abastecimento" (Observador)