Neueste Forschungen, veröffentlicht im 'British Journal of Psychology', belegen, dass Super-Erkenner – Personen mit überdurchschnittlichen Fähigkeiten zur Gesichtsidentifikation – fotorealistische, durch künstliche Intelligenz generierte Porträts nur geringfügig besser von echten Fotografien unterscheiden können als der Durchschnittsmensch. Ihre Trefferquote liegt bei etwa 66 %, während Personen ohne besondere Fähigkeiten etwa 59 % erreichen. Diese Ergebnisse stellen die Möglichkeit in Frage, sich auf die menschliche Wahrnehmung als wirksame Verteidigungslinie gegen fortgeschrittene Deepfakes in Desinformationskampagnen und in der Justiz zu verlassen.
Geringe Effektivität von Super-Erkennern
Spezialisten für Gesichtsidentifikation klassifizierten Deepfakes lediglich in 66 % der Fälle korrekt, während Personen ohne besondere Fähigkeiten eine Trefferquote von 59 % erreichten.
Gefahr für Sicherheit und Recht
Die Schwierigkeit, fortgeschrittene Deepfakes zu erkennen, untergräbt die Glaubwürdigkeit visueller Beweise vor Gericht und birgt Risiken der Manipulation in Politik und Medien.
Notwendigkeit technischer Lösungen
Experten weisen darauf hin, dass angesichts der Grenzen der menschlichen Wahrnehmung algorithmische Werkzeuge zur Fälschungserkennung und rechtliche Systeme entscheidend werden.
Fortgeschrittene Techniken der generativen künstlichen Intelligenz erzeugen derzeit synthetische menschliche Gesichter, die selbst für spezialisierte Experten, sogenannte Super-Erkenner, praktisch nicht von echten zu unterscheiden sind. Eine im renommierten 'British Journal of Psychology' veröffentlichte Studie ergab, dass Super-Erkenner in Tests, die darauf abzielten, ein fotorealistisches, von KI generiertes Porträt von einem Foto einer echten Person zu unterscheiden, eine durchschnittliche Trefferquote von nur etwa 66 % erreichten. Zum Vergleich klassifizierten Personen ohne besondere Fähigkeiten auf diesem Gebiet die Gesichter in etwa 59 % der Fälle korrekt. „This shows that even those who are the best at face recognition are not immune to sophisticated deepfakes.” — Matt Oxley, Mitautor der Studie Dieser marginale Vorsprung von Spezialisten gegenüber Laien ist beunruhigend und stellt bisherige Annahmen in Frage, wonach die menschliche Wahrnehmung eine verlässliche Verteidigungslinie gegen digitale Fälschungen darstellen könnte. Fotografie und Film hatten seit ihrer Erfindung im 19. Jahrhundert mit dem Problem der Manipulation zu kämpfen, von einfacher Retusche bis hin zum Schnitt. Der Durchbruch kam um 2014 mit der Entwicklung generativer adversarieller Netzwerke (GAN), die die Erstellung völlig synthetischer, aber dennoch fotorealistischer Bilder ermöglichten, die auf keiner existierenden Quelle basieren. Experten weisen auf die multidimensionalen Gefahren hin, die aus dieser Lücke in den menschlichen Erkennungsfähigkeiten erwachsen. Im rechtlichen Bereich können Deepfakes die Authentizität von Videobeweisen in Gerichtsverfahren untergraben und visuelle Zeugenaussagen unglaubwürdig machen. Im politischen Bereich können gefälschte Aufnahmen dazu dienen, öffentliche Personen zu kompromittieren und Wahlprozesse zu destabilisieren. In digitalen Medien kann jedes Material, das wichtige Ereignisse dokumentiert, in Frage gestellt werden, was zu einem Vertrauensverlust der Gesellschaft in visuelle Botschaften führt. Effektivität der Unterscheidung von KI- von echten Gesichtern in der Studie: Super-Erkenner: 66, Personen ohne besondere Fähigkeiten: 59 Die Technologie zur Erzeugung realistischer Gesichter durch KI entwickelt sich schneller als die Anpassungsfähigkeit des menschlichen Gehirns. Die einzig realistische Antwort auf diese Herausforderung ist nach Ansicht von Wissenschaftlern die Entwicklung fortschrittlicher, algorithmischer Werkzeuge zur Fälschungserkennung sowie die Schaffung geeigneter rechtlicher und ethischer Rahmenbedingungen. Entscheidend wird die Entwicklung von Systemen sein, die subtile, für das menschliche Auge unsichtbare Artefakte generativer Algorithmen identifizieren können. Ohne solche Lösungen stehen Gesellschaften vor einer Zukunft, in der 'sehen' nicht mehr gleichbedeutend mit 'glauben' sein wird.
Mentioned People
- Matt Oxley — Mitautor der im British Journal of Psychology veröffentlichten Studie