Nawet osoby o szczególnych zdolnościach w rozpoznawaniu twarzy, tzw. superrozpoznawcy, mają poważne trudności z odróżnieniem twarzy generowanych przez sztuczną inteligencję od prawdziwych. Wyniki nowego badania opublikowanego w "British Journal of Psychology" wskazują, że ich skuteczność jest tylko nieznacznie wyższa niż laików, co podkreśla zaawansowanie i niepokojąco realistyczny charakter współczesnych deepfejków.
Porażka superrozpoznawców
Osoby o nadzwyczajnych zdolnościach rozpoznawania twarzy osiągają jedynie nieco lepsze wyniki niż zwykli ludzie w testach identyfikacji deepfejków.
Realizm obrazów AI
Generowane przez sztuczną inteligencję obrazy i filmy są obecnie tak realistyczne, że skutecznie wprowadzają w błąd nawet wyspecjalizowanych ekspertów.
Publikacja naukowa
Badanie, które ujawniło te problemy, zostało opublikowane w prestiżowym czasopiśmie naukowym "British Journal of Psychology".
Technologia generatywnej sztucznej inteligencji osiągnęła poziom, na którym stworzone przez nią ludzkie twarze są praktycznie nieodróżnialne od prawdziwych nawet dla wyspecjalizowanych ekspertów. Najnowsze badania, których wyniki opublikowano w "British Journal of Psychology", pokazują, że tzw. superrozpoznawcy radzą sobie z tym zadaniem jedynie nieznacznie lepiej niż osoby bez takiego szczególnego talentu. Ich trafność w testach okazała się zaskakująco niska, co podważa dotychczasowe założenia dotyczące ludzkiej percepcji i weryfikacji autentyczności wizualnej. Eksperci podkreślają, że ta luka w ludzkich zdolnościach rozpoznawczych stanowi poważne wyzwanie dla bezpieczeństwa, prawa i wiarygodności mediów. Technologia deepfake ewoluuje szybciej niż zdolności jej wykrywania przez człowieka, co rodzi pytania o przyszłość autentyczności cyfrowej. Problemy z odróżnianiem prawdy od fałszu w mediach są stare jak sam przekaz, ale skala i realizm współczesnych manipulacji są bezprecedensowe. Już w latach 90. XX wieku proste programy graficzne pozwalały na retusz zdjęć, jednak rewolucja w uczeniu maszynowym i sieciach generatywnych z ostatniej dekady umożliwiła tworzenie treści w czasie rzeczywistym, które są nie do odróżnienia od nagrań autentycznych. Wyniki badań sugerują, że poleganie wyłącznie na ludzkiej percepcji w celu zwalczania dezinformacji wizualnej może być już niewystarczające. Konieczne staje się rozwijanie zaawansowanych narzędzi technologicznych, które będą wspierać lub zastępować ludzkie osądy w tym zakresie. Brak skutecznych metod obrony przed zaawansowanymi deepfejkami stanowi rosnące zagrożenie dla procesów wyborczych, wiarygodności świadków w sądach oraz zaufania publicznego do nagrań dokumentujących wydarzenia.