Amerykański Departament Obrony rozważa zakończenie relacji z firmą technologiczną Anthropic. Powodem sporu są restrykcje dotyczące wykorzystania modeli językowych Claude w operacjach militarnych. Pentagon naciska na usunięcie barier w zakresie rozwoju broni oraz działań wywiadowczych. Negocjacje trwają od wielu miesięcy, a impas zagraża dalszemu finansowaniu projektów realizowanych przez twórców zaawansowanej sztucznej inteligencji.
Zagrożony kontrakt obronny
Pentagon rozważa zerwanie współpracy z firmą Anthropic z powodu sporów o zasady użytkowania sztucznej inteligencji Claude w wojsku.
Spór o etykę AI
Firma Anthropic utrzymuje blokady bezpieczeństwa, które uniemożliwiają Pentagonowi użycie technologii do rozwoju broni i działań wywiadowczych.
Presja na sektor tech
Departament Obrony naciska na cztery wiodące firmy AI, by te umożliwiły armii nieograniczone korzystanie z algorytmów w ramach prawa.
Amerykański Departament Obrony (Pentagon) stanął w obliczu poważnego kryzysu w relacjach z jednym z czołowych laboratoriów sztucznej inteligencji – firmą Anthropic. Według doniesień portalu Axios, kością niezgody są rygorystyczne warunki użytkowania modelu Claude, które ograniczają militarne zastosowania technologii. Resort obrony domaga się, aby dostawcy AI zezwalali na wykorzystanie ich narzędzi do „wszelkich zgodnych z prawem celów”. Obejmuje to tak wrażliwe obszary jak projektowanie broni, gromadzenie danych wywiadowczych oraz bezpośrednie wsparcie operacji na polu walki. Relacje między rządem USA a Doliną Krzemową pozostają napięte od 2018 roku, kiedy to protesty pracowników Google zmusiły firmę do wycofania się z projektu Maven, dotyczącego analizy nagrań z dronów dla wojska.Sytuacja jest o tyle kontrowersyjna, że Pentagon miał już wykorzystać technologię Anthropic podczas operacji, która doprowadziła do ujęcia Nicolása Maduro. Przedstawiciele armii tracą cierpliwość po miesiącach bezowocnych rokowań. Anthropic konsekwentnie odmawia zniesienia zabezpieczeń etycznych, które mają zapobiegać nadużyciom technologii w celach ofensywnych. Pentagon wywiera presję na cztery czołowe firmy z branży, dążąc do ujednolicenia zasad dostępu do najnowocześniejszych systemów. W 1958 roku powołano agencję ARPA (obecnie DARPA), co zapoczątkowało trwającą dekady ścisłą symbiozę między badaniami akademickimi nad systemami obliczeniowymi a potrzebami obronnymi USA.„Pentagon traci cierpliwość w związku z uporem firmy Anthropic dotyczącym utrzymania specyficznych ograniczeń w użytkowaniu ich modeli przez wojsko.” — Przedstawiciel administracji USAEksperci wskazują, że ewentualne zerwanie współpracy mogłoby spowolnić integrację AI w strukturach Sił Zbrojnych USA, ale jednocześnie wysłałoby silny sygnał do innych graczy rynkowych, takich jak OpenAI czy Google. Spór dotyka fundamentalnego dylematu: gdzie leży granica między komercyjną etyką technologiczną a potrzebami bezpieczeństwa narodowego w erze cyfrowego wyścigu zbrojeń. 4 — wielkie firmy AI są pod presją PentagonuStanowiska w sporze o AI: Cel wykorzystania: Wyłącznie cele defensywne i analityczne → Wszelkie legalne cele wojskowe i ofensywne; Zasady etyczne: Narzucane przez producenta oprogramowania → Podporządkowane wymogom misji Departamentu ObronyPodkreśla prawo prywatnych firm do decydowania o etycznym wykorzystaniu ich wynalazków i przestrzega przed militaryzacją nauki. | Akcentuje potrzebę technicznej przewagi nad rywalami takimi jak Chiny i krytykuje korporacje za utrudnianie działań obronnych.
Mentioned People
- Nicolás Maduro — Prezydent Wenezueli, którego ujęcie miało być wspomagane przez technologię AI dostarczoną przez Anthropic.
Sources: 5 articles from 5 sources
- Streit um KI-Nutzungsregeln: Pentagon erwägt offenbar Zusammenarbeit mit Anthropic zu beenden (Der Tagesspiegel)
- Pentagon erwägt Bruch mit Anthropic: Diese Regeln für KI sind der Grund (Berliner Zeitung)
- Streit über KI-Einsatz: Pentagon erwägt Bruch mit Anthropic wegen Nutzungsbedingungen (Spiegel Online)
- Pentagon threatens to cut off Anthropic in AI safeguards dispute, Axios reports (Reuters)
- Exclusive: Pentagon threatens to cut off Anthropic in AI safeguards dispute (Axios)