Najnowsze badania opublikowane w „British Journal of Psychology” dowodzą, że superrozpoznawcy, osoby o ponadprzeciętnych zdolnościach identyfikacji twarzy, radzą sobie z odróżnieniem fotorealistycznych, generowanych przez sztuczną inteligencję portretów od prawdziwych fotografii tylko nieznacznie lepiej niż przeciętni ludzie. Ich skuteczność wynosi około 66%, podczas gdy osoby bez specjalnych umiejętności osiągają około 59% trafności. Wyniki te podważają możliwość polegania na ludzkiej percepcji jako skutecznej linii obrony przed zaawansowanymi deepfejkami w kampaniach dezinformacyjnych i w sądownictwie.
Niska skuteczność superrozpoznawców
Specjaliści od identyfikacji twarzy poprawnie klasyfikowali deepfejki jedynie w 66% przypadków, podczas gdy osoby bez specjalnych zdolności osiągały 59% trafności.
Zagrożenie dla bezpieczeństwa i prawa
Trudność w wykrywaniu zaawansowanych deepfejków podważa wiarygodność dowodów wizualnych w sądach i stwarza ryzyko manipulacji w polityce i mediach.
Potrzeba rozwiązań technicznych
Eksperci wskazują, że wobec ograniczeń ludzkiej percepcji, kluczowe stają się algorytmiczne narzędzia do wykrywania fałszerstw i systemy prawne.
Zaawansowane techniki generatywnej sztucznej inteligencji tworzą obecnie syntetyczne ludzkie twarze, które są praktycznie nie do odróżnienia od prawdziwych nawet dla wyspecjalizowanych ekspertów, tzw. superrozpoznawców. Badanie opublikowane w prestiżowym „British Journal of Psychology” wykazało, że w testach mających na celu odróżnienie fotorealistycznego portretu wygenerowanego przez AI od fotografii prawdziwej osoby, superrozpoznawcy osiągali średnią trafność na poziomie zaledwie około 66%. Dla porównania, osoby bez szczególnych umiejętności w tej dziedzinie klasyfikowały twarze poprawnie w około 59% przypadków. „This shows that even those who are the best at face recognition are not immune to sophisticated deepfakes.” (To pokazuje, że nawet ci, którzy są najlepsi w rozpoznawaniu twarzy, nie są odporni na zaawansowane deepfejki.) — Matt Oxley, współautor badania Ta marginalna przewaga specjalistów nad laikami jest niepokojąca i podważa dotychczasowe założenia, jakoby ludzka percepcja mogła stanowić wiarygodną linię obrony przed cyfrowymi fałszerstwami. Fotografia i film od swojego wynalezienia w XIX wieku borykały się z problemem manipulacji, od prostego retuszu po montaż. Przełom nastąpił około 2014 roku wraz z rozwojem generatywnych sieci przeciwnikowych (GAN), które umożliwiły tworzenie całkowicie syntetycznych, a jednak fotorealistycznych obrazów niebazujących na żadnym istniejącym źródle. Eksperci wskazują na wielowymiarowe zagrożenia płynące z tej luki w ludzkich zdolnościach rozpoznawczych. W wymiarze prawnym deepfake'i mogą podważać autentyczność dowodów wideo w postępowaniach sądowych, czyniąc zeznań wizualnych niewiarygodnymi. W sferze politycznej spreparowane nagrania mogą służyć do kompromitowania publicznych osób i destabilizacji procesów wyborczych. W mediach cyfrowych każdy materiał dokumentujący ważne wydarzenie może zostać zakwestionowany, co prowadzi do erozji zaufania społecznego do przekazów wizualnych. Skuteczność odróżniania twarzy AI od prawdziwych w badaniu: Superrozpoznawcy: 66, Osoby bez specjalnych zdolności: 59 Technologia generowania realistycznych twarzy przez AI ewoluuje w tempie przekraczającym zdolność adaptacyjną ludzkiego mózgu. Jedyną realną odpowiedzią na to wyzwanie, zdaniem naukowców, jest rozwój zaawansowanych, algorytmicznych narzędzi do wykrywania fałszerstw oraz tworzenie odpowiednich ram prawnych i etycznych. Kluczowe staje się opracowanie systemów, które będą w stanie identyfikować subtelne artefakty pozostawiane przez algorytmy generatywne, niewidoczne dla ludzkiego oka. Bez takich rozwiązań społeczeństwa staną w obliczu przyszłości, w której „widzieć” nie będzie już równoznaczne z „wierzyć”.
Mentioned People
- Matt Oxley — współautor badania opublikowanego w British Journal of Psychology
Sources: 3 articles from 3 sources
- "Nie do rozpoznania". Nowy poziom deepfejków (Deutsche Welle)
- Super Recognizer scheitern an KI-Gesichtern: Studie zeigt geringe Erkennungsrate (N-tv)
- Forschung: Studie: KI-generierte Gesichter tricksen sogar Experten aus (ZEIT ONLINE)