Sekretarz obrony USA musi osobiście negocjować z prywatną firmą, by jej produkt zgodził się służyć na wojnie. W tym samym czasie niemieckie media publiczne fabrykują rzeczywistość, a czujniki w Reichstagu wywołują alarm z powodu płynu do podłóg.

Bunt maszyn w wersji biurowej. Najpotężniejsza armia świata znalazła się w sytuacji bezprecedensowej zależności. Sekretarz obrony Pete Hegseth wezwał do Pentagonu Dario Amodei, dyrektora generalnego Anthropic, nie po to, by wydać rozkaz, lecz by negocjować warunki użytkowania oprogramowania. Spór dotyczy modelu Claude, który – jak donosi Axios – jest jedynym systemem AI działającym w tajnych sieciach amerykańskiego wojska. Departament Obrony zderzył się ze ścianą w postaci „guardrails”, czyli etycznych blokad zaszytych w kodzie przez twórców.

Sytuacja ta obnaża nowy układ sił w geopolityce cyfrowej. Firma założona w 2021 roku przez byłych pracowników OpenAI dyktuje warunki supermocarstwu. Pentagon, sfrustrowany oporem pacyfistycznego algorytmu, grozi oznaczeniem Anthropic jako ryzyka łańcucha dostaw. To kategoria rezerwowana zazwyczaj dla chińskich gigantów technologicznych, a nie dla partnerów z Doliny Krzemowej. Groźba ta jest aktem desperacji; wojsko potrzebuje Claude do zadań wywiadowczych, ale narzędzie odmawia współpracy w zakresie, jakiego oczekują generałowie.

W tle tego konfliktu Palantir Technologies próbuje skleić sojusz, który umożliwiłby „uoperacjonalizowanie” modelu w systemach obronnych. Spotkanie we wtorek w Pentagonie to próba sił: czy państwo może zmusić prywatną technologię do porzucenia swoich moralnych bezpieczników na rzecz skuteczności bojowej? Hegseth i Amodei wchodzą do sali negocjacyjnej z fundamentalnie sprzecznych pozycji. Wynik tej rozmowy zdefiniuje, czy w przyszłych konfliktach AI będzie żołnierzem, czy sumieniem dowódcy. „Claude is the only AI model available in the military's classified systems, and the most capable model for sensitive defense and intelligence work.” (Claude to jedyny model AI dostępny w sklasyfikowanych systemach wojskowych i najzdolniejszy model do wrażliwej pracy obronnej i wywiadowczej.) — AxiosRelacje między Doliną Krzemową a Pentagonem są napięte od czasu „Project Maven” z 2018 roku, kiedy pracownicy Google zaprotestowali przeciwko wykorzystaniu ich AI do analizy obrazów z dronów. Anthropic, pozycjonujący się jako „bezpieczna” alternatywa dla OpenAI, wpisał ograniczenia etyczne w DNA swojego produktu, co teraz staje się barierą operacyjną dla sektora obronnego.Fikcja w serwisie informacyjnym. Podczas gdy wojsko walczy o to, by AI działało, media walczą ze skutkami tego, że AI zadziałało zbyt kreatywnie. Niemiecki nadawca ZDF przeprasza za emisję materiału w „heute journal” z dnia 15 lutego 2026 roku. Widzowie oglądający reportaż o amerykańskiej agencji ICE zobaczyli nie rzeczywistość, lecz cyfrową halucynację. Redakcja wykorzystała wygenerowane wideo bez żadnego oznaczenia, co wiceszefowa Anne Gellinek nazwała „podwójnym błędem”.

Incydent ten podważa wiarygodność mediów publicznych w momencie, gdy jest ona najbardziej potrzebna. Nathanael Liminski, minister ds. mediów Nadrenii Północnej-Westfalii, słusznie zauważył, że zaufanie jest najcenniejszym kapitałem stacji. Tymczasem redaktorzy, zamiast weryfikować fakty, sięgnęli po łatwo dostępne, syntetyczne obrazy. To nie jest błąd techniczny; to błąd poznawczy. Dziennikarstwo newsowe, które zastępuje brudną rzeczywistość czystą grafiką z generatora, przestaje pełnić funkcję świadka.

Paradoks polega na tym, że technologia w obu przypadkach – Pentagonu i ZDF – działała wbrew intencjom użytkownika. W USA algorytm jest zbyt moralny, by zabijać. W Niemczech algorytm jest zbyt chętny do konfabulacji, by informować. W obu scenariuszach czynnik ludzki zawiódł w procesie nadzoru nad narzędziem, które miało usprawnić pracę, a stało się źródłem kryzysu wizerunkowego i operacyjnego.Zimny prysznic rzeczywistości. Podczas gdy instytucje zmagają się z wirtualnymi problemami, fizyczna rzeczywistość brutalnie weryfikuje ludzką pychę. W Austrii i Alpach zima zabiła pięć osób w ciągu 48 godzin. W samym Tyrolu służby odnotowały ponad 30 interwencji lawinowych. W St. Anton am Arlberg zginęli obywatele USA, Polski i Austrii. Żadne algorytmy predykcyjne nie powstrzymały mas śniegu przed zejściem na narciarzy.

Technologiczna infrastruktura okazała się bezradna wobec 20 centymetrów śniegu na lotnisku Wiedeń-Schwechat. Odwołano 150 lotów, uziemiając 13 tysięcy pasażerów. W Słowenii 34 000 gospodarstw zostało odciętych od prądu. To przypomnienie o hierarchii potrzeb: zanim zaczniemy martwić się o etykę sztucznej inteligencji, musimy zapewnić działanie sieci energetycznej i przejezdność dróg.

Kontrastuje to z wydarzeniami w Berlinie, gdzie ultranowoczesne systemy bezpieczeństwa w Reichstagu wywołały panikę z powodu środka czyszczącego. O godzinie 5:15 rano 80 strażaków ruszyło do akcji, by zneutralizować zagrożenie, które okazało się oparami detergentu. Mamy więc systemy, które reagują histerią na sprzątanie, oraz naturę, która paraliżuje całe państwa mimo istnienia pługów i radarów pogodowych. 150 — liczba odwołanych lotów w Wiedniu z powodu opadów śniegu Argument zwolenników pełnej automatyzacji brzmi: błędy są wpisane w postęp. Twierdzą oni, że Pentagon musi zmusić Anthropic do uległości, by utrzymać przewagę nad Chinami, a wpadka ZDF to tylko etap przejściowy w adaptacji nowych narzędzi. Wskazują, że bez zaawansowanych systemów detekcji w Reichstagu realne zagrożenie mogłoby zostać przeoczone.

Jednakże fakty z ostatnich dwóch dni przeczą tej optymistycznej wizji. Zależność od systemów, których nie rozumiemy lub nie kontrolujemy, tworzy nowe wektory ryzyka. Jeśli Claude jest jedynym modelem w tajnych systemach USA, to amerykańska obrona ma „pojedynczy punkt awarii” (single point of failure) zależny od kaprysu cywilnego zarządu. Jeśli media publiczne nie potrafią odróżnić prawdy od fałszu we własnych materiałach, stają się nieświadomymi agentami dezinformacji. Technologia, zamiast wzmacniać instytucje, zaczyna je korodować od środka.

Spotkanie w Pentagonie może zakończyć się wymuszoną ugodą, ale problem pozostanie. Budujemy systemy oparte na zaufaniu do kodu, który coraz częściej okazuje się niekompatybilny z rzeczywistością – czy to na polu bitwy, w studiu telewizyjnym, czy na zaśnieżonym stoku w Tyrolu. Prawdziwe niebezpieczeństwo nie leży w tym, że maszyny przejmą władzę, ale w tym, że my oddamy im ją dobrowolnie, zanim nauczą się odróżniać płyn do podłóg od broni chemicznej.