Fake Images gibt es seit Anbeginn der Fotografie in Form von Retuschen. Jetzt geht die technische Entwicklung rasant voran, und wir sind mit einer Masse an Fakes konfrontiert, die weiter zunimmt. Sie werden zur Identitätsfälschung und Desinformation genutzt, aber auch um Verschwörungsphänomene zu stützen und frauenfeindliche Maßnahmen wie gefakte pornografische Inhalte zu verbreiten, ganz zu schweigen von Pädophilie.
Das ist eine gesamtgesellschaftliche Herausforderung, die ein Paket an Maßnahmen erfordert. Es braucht Kennzeichnungspflichten für Deep Fakes, damit normale Fotos und Videos wieder mehr Bedeutung und Wertschätzung erfahren. Auch die Datenforensik ist gefordert, die wir hoffentlich bald am heimischen Computer haben. Leider konzipieren viel mehr Menschen Deep-Fake-Programme als Entlarvungsprogramme für Deep Fakes.
Auch die Bildkompetenzen, um Fakes wahrzunehmen, sind optimierbar. Hier braucht es das genaue Hinschauen, wie wir es in der Kunstgeschichte und Bildwissenschaft gewohnt sind. Dazu braucht es jedoch eine sehr hohe Auflösung für die Detailanalyse. Da die Fakes immer besser werden, ist auch eine Kontextanalyse nötig, bei der es darum geht, wie die Bilder entstanden sind. Dafür brauchen wir noch viel mehr Medien- und digitale Kompetenzen als sie etwa jetzt an Schulen unterrichtet werden. Bei der Vermittlung sind aber auch andere Institutionen wie Museen oder der Journalismus gefordert.