Deepfakes: Wie erkennt man manipulierte Audios und Videos?

Für die meisten Benutzer ist es schwierig, nicht intuitiv zu glauben, was sie sehen oder hören. Da es jedoch möglich ist, Fotos, Videos und Audios mit relativ geringem Aufwand und Erfahrung zu manipulieren, wird empfohlen, aufmerksam zu sein.

Guardar
ARCHIVO - Si un vídeo
ARCHIVO - Si un vídeo resulta extraño en algún sentido, vale la pena indagar sobre su autenticidad. Foto: Christin Klose/dpa

Für die meisten Benutzer ist es schwierig, nicht intuitiv zu glauben, was sie sehen oder hören. Da es jedoch möglich ist, Fotos, Videos und Audios mit relativ geringem Aufwand und Erfahrung zu manipulieren, wird empfohlen, aufmerksam zu sein.

Sogenannte „Deepfakes“ werden mit Hilfe künstlicher Intelligenz (KI) erstellt und sind bei normaler Betrachtung oder Wiedergabe kaum von echten Videos oder Sprachaufnahmen zu unterscheiden, warnt das Bundesamt für Sicherheit in der Informationstechnologie (BSI), das eine neue Themenseite zu das erklärt die Technologie, Verfahren, Gefahren und wie Sie sich schützen können.

Fälschungen werden als „Deepfakes“ bezeichnet, da die zu ihrer Herstellung verwendeten Methoden auf tiefen neuronalen Netzen basieren.

Wie schützt man sich vor diesen manipulierten Dateien? Die bloße Tatsache, dass wir ihre Existenz und die Möglichkeiten der KI kennen, führt dazu, dass wir aufhören, blind der Authentizität einer Video- oder Audioaufnahme selbst zu vertrauen. Es ist immer wichtig, bestimmte Behauptungen und ihre Plausibilität kritisch zu hinterfragen.

Es kann auch technische Beweise geben, um Fälschungen aufzudecken. Laut BSI können dies Artefakte in Gesichtsübergängen, verschwommene Umrisse, fehlende Gesichtsausdrücke oder inkonsistente Belichtung in Videos sein. Ein metallischer oder eintöniger Klang, eine falsche Aussprache oder eine künstliche Sprechweise sowie unnatürliche Geräusche oder Verzögerungen sind typische Fehler bei Stimmfälschungen.

Laut BSE könnte es in Zukunft auch kryptografische Verfahren geben, die die Quelle von Video- oder Audiomaterial eindeutig mit einer Identität verknüpfen und so die Vermeidung von Fälschungen ermöglichen. Dazu gehören auch zahlreiche Methoden zur automatischen Erkennung manipulierter Daten, die derzeit Gegenstand von Studien der Wissenschaftlergemeinschaft sind, sagen die Experten des Unternehmens.

dpa

Guardar