Direkt zum Inhalt

Erfolgreiche Voice-Deepfake-Attacke war erst der Anfang

Vor gut einem Jahr warnte das „Security Center of Excellence“ der NTT Security, vor Deepfakes gewarnt. Jetzt ist aus der bloßen Gefahr Realität geworden.

Mit einer KI-basierten Software und der Imitation der Stimme eines CEO ist es Angreifern gelungen, mit einer Voice-Deepfake-Attacke in den Besitz von 243.000 US-Dollar zu gelangen. Bereits seit Längerem sind Foto- und Video-Deepfakes im Umlauf, die von echtem Bildmaterial kaum mehr zu unterscheiden sind. Jetzt hat erstmals in größerem Ausmaß ein Voice-Deepfake zugeschlagen

So einfach funktioniert der Diebstahl von Video- und Bildmaterial

Derartige Angriffe sind nach Einschätzung von NTT Security relativ einfach realisierbar. Entweder der Angreifer nutzt frei verfügbare Videos vom CEO im Internet, aus denen er die Stimme extrahiert. Oder aber er verwendet ein Ausgangsmaterial für ein Voice-Deepfake, das demjenigen des CEOs ähnelt. Gefährdet für solche Angriffe sind nach NTT Security vor allem große, international aufgestellte Unternehmen, bei denen ein „Opfer“ meist die Stimme des Gegenübers nicht zu 100 Prozent genau kennt. Angriffe mit einer ähnlich klingenden Stimme sind hier sehr erfolgversprechend.

„Es ist wenig verwunderlich, dass die sich dynamisch entwickelnde Deepfake-Technologie für Cyber-Attacken verwendet wird. Es war lediglich eine Frage der Zeit“, erklärt David Wollmann, Executive Consultant bei NTT Security. „Das Bekanntwerden dieses Angriffs wird aus meiner Sicht dazu führen, dass die Anzahl der Social-Engineering-Angriffe mittels Deepfakes, sei es Voice oder auch Video, stark zunehmen wird.“

Gibt es Möglichkeiten, derartige Voice-Deepfake-Attacken zu erkennen?

Anzeige

Ja und nein. Es kommt ganz darauf an, wie viel Aufwand in die Deepfake-Erstellung gesteckt wird. Ein nicht so gut vorbereiteter Angreifer könnte auffallen, wenn er nicht genug Audiomaterial vorbereitet hat und dieses dann ad hoc generieren muss. Dabei kann es zu Verzögerungen in den Antwortzeiten kommen, was ein Hinweis darauf sein kann, dass ein Angriff mit Voice-Deepfakes erfolgt. Das Problem ist allerdings, dass sich mit vergleichsweise geringem Aufwand schon relativ gute Ergebnisse erzielen lassen.

Was bleibt Unternehmen also zu tun, um nicht auf solche Betrüger hereinzufallen? „Für Voice-Deepfake-Angriffe gibt es bisher keine technischen Abwehrmaßnahmen“, so Wollmann. „Ist das Deepfake gut gemacht, so wird es mit dem menschlichen Gehör nur sehr schwer oder gar nicht zu erkennen sein. Man könnte höchstens auf komische Geräusche in der Leitung achten, die ein Deepfake-Indiz sein könnten.“

Im Hinblick auf die Deepfake-Gefahr empfiehlt NTT Security Unternehmen, einen Prozess aufzusetzen, der bei unternehmenskritischen Aktivitäten wie einer finanziellen Transaktion oder Übermittlung von Forschungs- und Kundendaten eine telefonische Rückversicherung beinhaltet. Darüber hinaus seien auch Awareness-Trainings empfehlenswert, die speziell auf das Thema Social Engineering eingehen.

Passend zu diesem Artikel