Deepfakes – Wenn Videobeweise lügen

Risiken im Internet

Man darf nicht alles glauben, was man im Internet sieht – auch nicht, wenn man es selbst in einem Video sieht. Sogenannte Deepfakes, mit künstlicher Intelligenz gefälschte Medieninhalte, tummeln sich immer häufiger auf Social Media und anderswo im Web. Oft, um falsche Informationen zu verbreiten. Deepfakes sind nicht nur für Promis und Politiker ein Problem.

iBarry vor verpixeltem Foto auf dem Bildschirm

Wenn man etwas im Internet findet und den Augen kaum glaubt, hat man es wahrscheinlich mit einem Deepfake zu tun. Das Wort ist eine Kombination von „Deep Learning“ und „Fake“ – dem englischen Wort für eine Fälschung. Deep Learning ist eine Form der künstlichen Intelligenz (KI). Dabei „lernt“ eine KI aus Beispielen und kann das Gelernte anschliessend nachahmen. Genau das machen Deepfakes. Zuerst lernt die KI etwa, wie das Gesicht einer Person aussieht. Anschliessend kann das Gesicht in einem beliebigen Video eingefügt werden.

Deepfakes kommen in verschiedenen Formen daher:

Ein Deepfake selbst ist noch nichts Kriminelles. Zu den legalen Anwendungen gehören etwa:

Obwohl Deepfakes nicht illegal sind, kann man trotzdem damit gegen Gesetze verstossen – vor allem im Bereich des Datenschutzes und des Urheberrechts. Oftmals werden Deepfakes aber sogar für klar fragwürdige oder illegale Absichten genutzt. Dazu zählen:

Aktuell sind die Anzahl Fälle, bei denen Deepfakes für cyberkriminelle Machenschaften genutzt wurden, noch sehr überschaubar. Die Technologie entwickelt sich jedoch schnell weiter. Die erforderliche Rechenleistung nimmt stetig ab. Und die Qualität wird immer besser. Es ist daher naheliegend anzunehmen, dass die Probleme rund um Deepfakes zunehmen werden.

Wie man Deepfakes erkennt

Eine gesunde Portion Skepsis kann helfen, auch im Zeitalter von Deepfakes sicher zu bleiben. Egal was man sieht und hört: Nur was sich verifizieren lässt, ist wirklich wahr. Aufgrund des aktuellen Standes der Technologie sind Deepfakes – zumindest im Moment noch – erkennbar, wenn man genau hinschaut. Wer denkt, ein Deepfake vor sich zu haben, sollte auf die folgenden Punkte achten:

Verschiedene Hochschulen verkünden bereits Erfolge bei der automatischen Erkennung von Deepfakes. Ein Team des Information Sciences Institute der University of Southern California beispielsweise erkennt Deepfakes mit einer Trefferquote von 96 Prozent.

Und wie verhindert man, dass man selbst Opfer eines Deepfakes wird?

Ein überzeugendes Deepfake erfordert eine Fülle an Bild- und Ton-Material der zu fälschenden Person. Wer also das eigene Gesicht einzigartig halten will, sollte nicht zu viel von sich selbst online stellen. Gibt es keine oder nur unvollständige Aufnahmen der Stimme oder des Gesichts einer Person, kann keine KI diese nachahmen.

Weitere Informationen