Amerykański startup Anthropic, twórca modelu Claude, znalazł się w centrum sporu z Departamentem Obrony USA. Firma, stawiająca na bezpieczeństwo i etykę, wprowadziła restrykcje dotyczące ofensywnego wykorzystania swojej technologii. W odpowiedzi Pentagon grozi zerwaniem kontraktu o wartości 200 milionów dolarów. Spór ten kładzie się cieniem na ambicjach Waszyngtonu, by wyprzedzić Chiny w wyścigu zbrojeń opartym na sztucznej inteligencji.

Groźba zerwania kontraktu

Pentagon rozważa anulowanie umowy z Anthropic o wartości 200 mln dolarów z powodu oporu firmy przed ofensywnym użyciem AI.

Etyka kontra zbrojenia

Firma wprowadziła ścisłe wytyczne dotyczące bezpieczeństwa AI, ograniczając jej rolę w działaniach wojennych, co koliduje z planami Departamentu Obrony.

Wyścig z Chinami

Sekretarz obrony Pete Hegseth dąży do integracji AI w każdym aspekcie wojskowości, by zapobiec dominacji Chin w nowej technologii.

Firma Anthropic, uznawana za jednego z liderów rynku sztucznej inteligencji obok OpenAI i Google, podjęła ryzykowną decyzję o zaostrzeniu zasad dotyczących wojskowego wykorzystania swoich modeli Claude. Choć startup był dotychczas jedynym dostawcą AI dopuszczonym do prac nad systemami o najwyższym stopniu tajności, jego kierownictwo sprzeciwia się udziałowi w operacjach o charakterze ofensywnym. Stanowisko to wywołało natychmiastową reakcję Pentagonu, który obecnie rozważa wykluczenie firmy z przyszłych zamówień obronnych. Sekretarz obrony Pete Hegseth nalega na nieograniczony dostęp do modeli AI, argumentując to koniecznością uzyskania przewagi technologicznej nad Chinami. Konflikt eskalował po ujawnieniu informacji przez The Wall Street Journal, jakoby systemy Anthropic były wykorzystywane podczas operacji w Wenezueli wymierzonej w reżim Nicolása Maduro. Administracja wojskowa wykazuje coraz mniejszą tolerancję dla etycznych barier stawianych przez Dolinę Krzemową, co stawia inne laboratoria AI przed trudnym dylematem między moralnością a lukratywnymi kontraktami rządowymi. Relacje między rządem USA a firmami technologicznymi są napięte od 2018 roku, kiedy to pracownicy Google doprowadzili do wycofania się firmy z projektu Maven, dotyczącego analizy obrazów z dronów za pomocą AI. Obecna sytuacja jest określana mianem testu wytrzymałości dla modelu biznesowego Anthropic, który od początku pozycjonował się jako podmiot bezpieczniejszy i bardziej transparentny niż konkurencja. Podczas gdy OpenAI złagodziło swoje wytyczne dotyczące współpracy z sektorem obronnym, Anthropic ryzykuje utratę 200 milionów dolarów, by zachować spójność z własną misją. Jednak w obliczu rosnącej presji geopolitycznej, izolacja od budżetu obronnego może znacząco utrudnić rozwój przyszłych wersji modelu Claude. „Musimy wdrażać sztuczną inteligencję szybciej i skuteczniej niż nasi przeciwnicy, co wymaga pełnego zaangażowania sektora prywatnego.” — Pete Hegseth

Mentioned People

  • Pete Hegseth — Amerykański sekretarz obrony naciskający na szybką integrację AI w armii.
  • Nicolás Maduro — Prezydent Wenezueli, przeciwko któremu rzekomo użyto technologii Anthropic.

Sources: 5 articles from 5 sources