Firma OpenAI ogłosiła radykalne zaostrzenie procedur bezpieczeństwa oraz zasad współpracy z organami ścigania. Decyzja ta zapadła po ujawnieniu, że sprawca tragicznej strzelaniny w Tumbler Ridge w Kanadzie zdołał obejść wcześniejszą blokadę, zakładając drugie konto w usłudze ChatGPT. Nowe protokoły mają umożliwić natychmiastowe zgłaszanie wiarygodnych zagrożeń policji, co według przedstawicieli firmy mogłoby zapobiec tragedii, gdyby systemy wykrywania działały sprawniej przed atakiem.

Obejście blokady konta

Sprawca strzelaniny w Kanadzie założył drugie konto ChatGPT po tym, jak pierwsze zostało zablokowane za agresywne treści.

Współpraca z policją

OpenAI zapowiada automatyczne zgłaszanie służbom wiarygodnych gróźb przemocy wykrytych przez algorytmy.

Reforma bezpieczeństwa

Firma wdraża nowe mechanizmy mające na celu uniemożliwienie planowania przestępstw przy pomocy AI.

Amerykański gigant technologiczny OpenAI znalazł się w centrum debaty nad odpowiedzialnością twórców sztucznej inteligencji po tragicznych wydarzeniach w Tumbler Ridge. Firma oficjalnie przyznała, że sprawczyni strzelaniny w kanadyjskiej szkole posiadała drugie, ukryte konto w serwisie ChatGPT, za pomocą którego prawdopodobnie planowała swoje działania. Choć główne konto kobiety zostało uprzednio zablokowane za naruszenie regulaminu dotyczącego generowania treści o charakterze przemocowym, systemy OpenAI nie zdołały powiązać nowej aktywności z osobą już raz wykluczoną z platformy. Wykorzystanie sztucznej inteligencji do planowania morderstw stawia pytania o granice prywatności i monitorowania użytkowników. W odpowiedzi na te uchybienia, kierownictwo OpenAI zapowiedziało wdrożenie nowych, rygorystycznych protokołów bezpieczeństwa. Kluczową zmianą jest zobowiązanie do proaktywnego informowania organów ścigania o każdym przypadku wykrycia „wiarygodnego zagrożenia dla życia lub zdrowia”. Do tej pory firma reagowała głównie na wezwania sądowe, rzadziej samodzielnie inicjując kontakt z policją. Od czasu debiutu publicznych wersji dużych modeli językowych w 2022 roku, etyka ich stosowania i ryzyko wykorzystania przez przestępców są przedmiotem intensywnych prac regulacyjnych w USA i Unii Europejskiej. Zmiany obejmą również lepszą identyfikację użytkowników próbujących obejść sankcje nakładane na ich konta. Analiza wewnętrzna przeprowadzona przez OpenAI wykazała, że pod nowymi zasadami aktywność sprawczyni zostałaby oflagowana jako krytyczna w ciągu kilku minut od wpisania zapytań. Eksperci podkreślają jednak, że zwiększenie inwigilacji użytkowników może budzić opory obrońców praw obywatelskich. Firma deklaruje, że balans między prywatnością a bezpieczeństwem zostanie zachowany, jednak priorytetem pozostaje uniemożliwienie wykorzystywania modeli językowych do celów przestępczych. „OpenAI would have alerted police to Canadian shooter if account was discovered today.” (Gdybyśmy odkryli to konto dzisiaj, zgodnie z naszymi nowymi wytycznymi, natychmiast powiadomilibyśmy odpowiednie służby.) — Rzecznik OpenAI Inicjatywa ta jest postrzegana jako sygnał dla całej branży technologicznej, by nie czekać na odgórne regulacje prawne, lecz samodzielnie tworzyć filtry bezpieczeństwa.

Perspektywy mediów: Podkreśla potrzebę rygorystycznej kontroli korporacji technologicznych i ochrony życia za cenę ograniczenia pełnej anonimowości w sieci. Wyraża obawy o cenzurę prewencyjną i tworzenie niebezpiecznych precedensów ścisłej współpracy Big Tech z policją bez nadzoru sądowego.

Sources: 11 articles from 11 sources