Najnowsze badania opublikowane w „British Journal of Psychology” dowodzą, że superrozpoznawcy, osoby o ponadprzeciętnych zdolnościach identyfikacji twarzy, radzą sobie z odróżnieniem fotorealistycznych, generowanych przez sztuczną inteligencję portretów od prawdziwych fotografii tylko nieznacznie lepiej niż przeciętni ludzie. Ich skuteczność wynosi około 66%, podczas gdy osoby bez specjalnych umiejętności osiągają około 59% trafności. Wyniki te podważają możliwość polegania na ludzkiej percepcji jako skutecznej linii obrony przed zaawansowanymi deepfejkami w kampaniach dezinformacyjnych i w sądownictwie.

Niska skuteczność superrozpoznawców

Specjaliści od identyfikacji twarzy poprawnie klasyfikowali deepfejki jedynie w 66% przypadków, podczas gdy osoby bez specjalnych zdolności osiągały 59% trafności.

Zagrożenie dla bezpieczeństwa i prawa

Trudność w wykrywaniu zaawansowanych deepfejków podważa wiarygodność dowodów wizualnych w sądach i stwarza ryzyko manipulacji w polityce i mediach.

Potrzeba rozwiązań technicznych

Eksperci wskazują, że wobec ograniczeń ludzkiej percepcji, kluczowe stają się algorytmiczne narzędzia do wykrywania fałszerstw i systemy prawne.

Zaawansowane techniki generatywnej sztucznej inteligencji tworzą obecnie syntetyczne ludzkie twarze, które są praktycznie nie do odróżnienia od prawdziwych nawet dla wyspecjalizowanych ekspertów, tzw. superrozpoznawców. Badanie opublikowane w prestiżowym „British Journal of Psychology” wykazało, że w testach mających na celu odróżnienie fotorealistycznego portretu wygenerowanego przez AI od fotografii prawdziwej osoby, superrozpoznawcy osiągali średnią trafność na poziomie zaledwie około 66%. Dla porównania, osoby bez szczególnych umiejętności w tej dziedzinie klasyfikowały twarze poprawnie w około 59% przypadków. „This shows that even those who are the best at face recognition are not immune to sophisticated deepfakes.” (To pokazuje, że nawet ci, którzy są najlepsi w rozpoznawaniu twarzy, nie są odporni na zaawansowane deepfejki.) — Matt Oxley, współautor badania Ta marginalna przewaga specjalistów nad laikami jest niepokojąca i podważa dotychczasowe założenia, jakoby ludzka percepcja mogła stanowić wiarygodną linię obrony przed cyfrowymi fałszerstwami. Fotografia i film od swojego wynalezienia w XIX wieku borykały się z problemem manipulacji, od prostego retuszu po montaż. Przełom nastąpił około 2014 roku wraz z rozwojem generatywnych sieci przeciwnikowych (GAN), które umożliwiły tworzenie całkowicie syntetycznych, a jednak fotorealistycznych obrazów niebazujących na żadnym istniejącym źródle. Eksperci wskazują na wielowymiarowe zagrożenia płynące z tej luki w ludzkich zdolnościach rozpoznawczych. W wymiarze prawnym deepfake'i mogą podważać autentyczność dowodów wideo w postępowaniach sądowych, czyniąc zeznań wizualnych niewiarygodnymi. W sferze politycznej spreparowane nagrania mogą służyć do kompromitowania publicznych osób i destabilizacji procesów wyborczych. W mediach cyfrowych każdy materiał dokumentujący ważne wydarzenie może zostać zakwestionowany, co prowadzi do erozji zaufania społecznego do przekazów wizualnych. Skuteczność odróżniania twarzy AI od prawdziwych w badaniu: Superrozpoznawcy: 66, Osoby bez specjalnych zdolności: 59 Technologia generowania realistycznych twarzy przez AI ewoluuje w tempie przekraczającym zdolność adaptacyjną ludzkiego mózgu. Jedyną realną odpowiedzią na to wyzwanie, zdaniem naukowców, jest rozwój zaawansowanych, algorytmicznych narzędzi do wykrywania fałszerstw oraz tworzenie odpowiednich ram prawnych i etycznych. Kluczowe staje się opracowanie systemów, które będą w stanie identyfikować subtelne artefakty pozostawiane przez algorytmy generatywne, niewidoczne dla ludzkiego oka. Bez takich rozwiązań społeczeństwa staną w obliczu przyszłości, w której „widzieć” nie będzie już równoznaczne z „wierzyć”.

Mentioned People

  • Matt Oxley — współautor badania opublikowanego w British Journal of Psychology

Sources: 3 articles from 3 sources

  • "Nie do rozpoznania". Nowy poziom deepfejków (Deutsche Welle)
  • Super Recognizer scheitern an KI-Gesichtern: Studie zeigt geringe Erkennungsrate (N-tv)
  • Forschung: Studie: KI-generierte Gesichter tricksen sogar Experten aus (ZEIT ONLINE)