Selbst Personen mit besonderen Fähigkeiten zur Gesichtserkennung, sogenannte Supererkennungsexperten, haben erhebliche Schwierigkeiten, von künstlicher Intelligenz generierte Gesichter von echten zu unterscheiden. Die Ergebnisse einer neuen Studie, die im "British Journal of Psychology" veröffentlicht wurde, zeigen, dass ihre Trefferquote nur geringfügig höher ist als die von Laien. Dies unterstreicht den hochentwickelten und beunruhigend realistischen Charakter moderner Deepfakes.

Niederlage der Supererkennungsexperten

Personen mit außergewöhnlichen Fähigkeiten zur Gesichtserkennung erzielen in Tests zur Identifizierung von Deepfakes nur geringfügig bessere Ergebnisse als normale Menschen.

Realismus von KI-Bildern

Von künstlicher Intelligenz generierte Bilder und Videos sind heute so realistisch, dass sie selbst spezialisierte Experten effektiv täuschen.

Wissenschaftliche Veröffentlichung

Die Studie, die diese Probleme aufdeckte, wurde in der renommierten wissenschaftlichen Zeitschrift "British Journal of Psychology" veröffentlicht.

Die generative KI-Technologie hat ein Niveau erreicht, auf dem von ihr erzeugte menschliche Gesichter selbst für spezialisierte Experten praktisch nicht von echten zu unterscheiden sind. Die neuesten Forschungsergebnisse, die im "British Journal of Psychology" veröffentlicht wurden, zeigen, dass sogenannte Supererkennungsexperten diese Aufgabe nur geringfügig besser bewältigen als Personen ohne ein solches besonderes Talent. Ihre Treffsicherheit in Tests erwies sich als überraschend niedrig, was bisherige Annahmen über die menschliche Wahrnehmung und visuelle Authentizitätsprüfung in Frage stellt. Experten betonen, dass diese Lücke in den menschlichen Erkennungsfähigkeiten eine ernsthafte Herausforderung für Sicherheit, Recht und Medienvertrauenswürdigkeit darstellt. Die Deepfake-Technologie entwickelt sich schneller als die menschliche Fähigkeit, sie zu erkennen, was Fragen zur Zukunft der digitalen Authentizität aufwirft. Probleme, Wahrheit von Fälschung in Medien zu unterscheiden, sind so alt wie die Übermittlung selbst, aber das Ausmaß und der Realismus heutiger Manipulationen sind beispiellos. Bereits in den 1990er Jahren ermöglichten einfache Grafikprogramme die Retusche von Fotos, doch die Revolution im maschinellen Lernen und in generativen Netzwerken des letzten Jahrzehnts hat die Echtzeiterstellung von Inhalten ermöglicht, die von authentischen Aufnahmen nicht zu unterscheiden sind. Die Studienergebnisse legen nahe, dass sich ausschließlich auf die menschliche Wahrnehmung zu verlassen, um visuelle Desinformation zu bekämpfen, möglicherweise nicht mehr ausreicht. Es wird notwendig, fortschrittliche technologische Werkzeuge zu entwickeln, die menschliche Urteile in diesem Bereich unterstützen oder ersetzen. Das Fehlen wirksamer Abwehrmaßnahmen gegen hochentwickelte Deepfakes stellt eine wachsende Bedrohung für Wahlprozesse, die Glaubwürdigkeit von Zeugen vor Gericht und das öffentliche Vertrauen in Aufnahmen dar, die Ereignisse dokumentieren.