Standpunkte

Wie geht die Gesellschaft künftig mit Deep Fakes um?


In jeder Ausgabe stellt morgen drei Menschen, die sich auskennen, eine Frage. Diesmal:

Wir brauchen noch viel mehr Medienkompetenzen

Fake Images gibt es seit Anbeginn der Fotografie in Form von Retuschen. Jetzt geht die technische Entwicklung rasant voran, und wir sind mit einer Masse an Fakes konfrontiert, die weiter zunimmt. Sie werden zur Identitätsfälschung und Desinformation genutzt, aber auch um Verschwörungsphänomene zu stützen und frauenfeindliche Maßnahmen wie gefakte pornografische Inhalte zu verbreiten, ganz zu schweigen von Pädophilie.

Das ist eine gesamtgesellschaftliche Herausforderung, die ein Paket an Maßnahmen erfordert. Es braucht Kennzeichnungspflichten für Deep Fakes, damit normale Fotos und Videos wieder mehr Bedeutung und Wertschätzung erfahren. Auch die Datenforensik ist gefordert, die wir hoffentlich bald am heimischen Computer haben. Leider konzipieren viel mehr Menschen Deep-Fake-Programme als Entlarvungsprogramme für Deep Fakes.

Auch die Bildkompetenzen, um Fakes wahrzunehmen, sind optimierbar. Hier braucht es das genaue Hinschauen, wie wir es in der Kunstgeschichte und Bildwissenschaft gewohnt sind. Dazu braucht es jedoch eine sehr hohe Auflösung für die Detailanalyse. Da die Fakes immer besser werden, ist auch eine Kontextanalyse nötig, bei der es darum geht, wie die Bilder entstanden sind. Dafür brauchen wir noch viel mehr Medien- und digitale Kompetenzen als sie etwa jetzt an Schulen unterrichtet werden. Bei der Vermittlung sind aber auch andere Institutionen wie Museen oder der Journalismus gefordert.

Wir sollten mit den Technologien spielen

So wie man nicht alles glaubt, was man liest, wird es auch immer mehr mit Bildern sein: Man sollte kritisch sein und recherchieren, ob man eine andere Quelle findet. Das braucht mehr Zeit, aber man wird Bullshit besser und schneller erkennen. Für junge Menschen wird es normal sein, mit digitalen Kopien von sich, etwa als Avatare in Videospielen, aufzuwachsen. Wir sollten selbst mit den Technologien spielen und mit den Kindern darüber reden. Sie wissen oft mehr als Erwachsene.

Noch ist es möglich, Deep Fakes zu erkennen, vor allem bei Videos. Aber sie werden besser und leichter zu erstellen. In den USA befürchten Schauspieler:innen, durch digitale Kopien ersetzt zu werden. Vor allem Statist:innen werden dort routinemäßig gescannt. KI ist einer der Auslöser des Actor-Streiks. Während alle noch über Deep-Fake-Pornos sprechen, ist die Industrie schon da, wo ganze Berufsstände bedroht sind.

Schreckensszenarien zu Deep Fakes und synthetischen Medien wie ChatGPT sind vorstellbar, etwa in Wahlkämpfen. Es gibt bereits Beispiele für den Propaganda-Einsatz synthetischer Medien. Es braucht weitere Lösungen neben den bereits bestehenden Regeln und Verboten für Deep Fakes in Social Media, etwa Zertifikate im Hintergrund. Reuters hat in der Ukraine eine Kamera getestet, die mit der Blockchain-Technologie die Echtheit von Inhalten und jeden Bearbeitungsschritt nachweist – ich glaube, das ist eine Lösung der Zukunft.

Nach der Begeisterung kommt die Enttäuschung

Deep Fakes werden uns sehr zu schaffen machen. Und ein noch größeres Problem sind Manufactured Realities. Ein Fake lässt sich besser entlarven, weil es immer ein Original braucht. Manufactured Realities können – mit enormer Geschwindigkeit und Qualität – völlig frei erfunden sein. Ich kann der KI sagen: Erzeuge alle fünf Minuten eine Geschichte, in der eine wichtige Person schlecht wegkommt. Das Ergebnis sind Verunsicherung und Misstrauen, die Verhärtung und Radikalisierung der Gesellschaft bewirken können.

Wie wir damit umgehen werden? Erst mal ziemlich planlos, ist zu fürchten, denn es fehlt uns die Erfahrung mit der Größenordnung dieses Problems. Wir müssen uns also mit der Technologie vertraut machen und verstehen, wie eine KI zu Ergebnissen kommt. Eines der größten Missverständnisse über KI ist, dass die rhetorische Brillanz eines Textes oder die Qualität generierter Bilder etwas über die Qualität der Inhalte sagt. Glücklicherweise kommt nach der ersten Begeisterung auch schnell die Enttäuschung. Noch ist KI vor allem eine rhetorisch brillante Märchenmaschine, aber mit enormem Entwicklungspotenzial.

Neben einer Regulierung mit Augenmaß braucht es lebenslanges Lernen – beginnend in den Schulen. KI zu verbieten, erzeugt nur Inkompetenz. Zur notwendigen Skepsis sollte das Gefühl hinzukommen, die Technologie zumindest ein Stück weit verstanden zu haben – und aus „Dem traue ich nicht“ wird „Ich weiß, wie ich damit umgehe“.