AI Voice Cloning – wie Sie sich vor Betrügern schützen können

Sich als jemand anderes auszugeben ist einfacher als man denkt. Voice Cloning Tools wie Respeeacher oder Murf imitieren den Klang menschlicher Stimmen mit nur wenigen Sekunden Originalmaterials. Betrüger nutzen diese AI-Tools, um an Geld zu kommen.

Stellen Sie sich vor: Sie arbeiten in der Buchhaltung eines großen Konzerns. Ihr Vorgesetzter ruft Sie an und bittet Sie, kurzfristig Geld an ein bestimmtes Konto zu überweisen oder ein geliebter Mensch steckt in Schwierigkeiten und benötigt Geld für einen Notfall wie einen Autounfall oder eine Krankenhausrechnung. Würden Sie die Überweisung tätigen oder das Geld zur Verfügung stellen? Wir hoffen nicht direkt, denn in Wirklichkeit könnte es sich bei der Person am Telefon um einen Fremden handeln, der eine AI Voice Cloning Software verwendet. 

Was ist AI Voice Cloning?

Die AI Voice Cloning Technologie nutzt Deep Learning Algorithmen, um die Stimme einer Person zu analysieren und zu rekonstruieren. Während hierfür ehemals große Datenmengen von Sprachaufnahmen benötigt wurden, um das Sprachmuster der Person zu erkennen und eine synthetische Stimme zu erstellen, die der natürlichen Stimme der Person ähnlich ist, benötigt man heute weniger als eine Minute Sprachaufnahme.

Wie funktioniert AI Voice Cloning?

Die Deepfake-Technik, analysiert alles, was die Stimme einer Person einzigartig macht, einschließlich Alter, Geschlecht und Akzent. Sie kann dann die Tonhöhe, das Timbre und die einzelnen Klänge der Stimme nachbilden, um einen ähnlichen Gesamteffekt zu erzielen.

Alles, was Sie brauchen, ist eine kurze Stimmprobe der menschlichen Stimme, wie etwa Beiträge auf YouTube, TikTok, Instagram oder Facebook-Videos und die KI lernt sie sofort. Anschließend können Sie ein beliebiges Skript schreiben, das die KI dann mit der nachgebildeten Stimme vorliest. Nun denken Sie vielleicht: “Meine Stimme ist nicht öffentlich im Internet zu finden, nun bin ich sicher!“ Ganz so einfach ist es leider nicht mehr. Ein fingierter Anruf bei ihnen (der durch den Angreifer aufgezeichnet wird) kann schon reichen, um genug Stimmmaterial zu erbeuten.

Gefahren durch AI Voice Cloning

Natürlich ist auch diese Technologie nicht einseitig zu bewerten und bietet insbesondere Menschen mit Schwierigkeiten zu sprechen eine synthetische Stimme, um ihre Gedanken auszudrücken. Allerdings ist das Missbrauchspotenzial riesig und reicht von reputationsgefährdenden Falschaussagen über raffinierte Betrügereien mit Familiennotfällen bis zu CEO-Frauds. 

Diese Art von Angriffen scheitert auch nicht am Geld. Entsprechende Services kosten nur wenige Dollar im Monat und können oft kostenfrei getestet werden. Auch gibt es immer mehr quelloffene Projekte in diesem Bereich, die von Angreifer kostenfrei genutzt werden können.

Das Klonen von Stimmen ermöglicht es den Benutzern, die einzigartigen Stimmmuster einer Person nachzubilden. Damit wird unsere Stimme bald ebenso schützenswert wie unsere Fingerabdrücke oder DNA. Daraus ergeben sich natürlich auch nachfolgende rechtliche Fragestellungen.

3 Möglichkeiten sich vor Voice Cloning Betrügern zu schützen

Die Entwicklungen im Bereich KI, sowie Voice cloning, schreiten aktuell sehr schnell voran. Sprachmodelle werden immer besser, benötigte Menge an Stimmvorlagen nehmen immer weiter ab. Es gibt verschiedene Möglichkeiten, sich vor den Gefahren durch AI Voice Cloning zu schützen:

Awareness: Low-Tech-Methoden zur Bekämpfung eines High-Tech-Problems.

Es gibt keine technische Möglichkeit, sich gegen solche Angriffe zu wehren, einzig das Schaffen von Bewusstsein für solche Angriffe kann helfen, nicht selbst zum Opfer zu werden.

Hier ein paar praktische Tipps, die man befolgen kann um einen verdächtigen Anruf z.B. vom vermeintlichen Chef zu erkennen:

  • Wird versucht, Druck aufzubauen – z.B. Zeit/Termindruck?
  • Ist die Art zu Reden unüblich – z.B. sind Begrüßungsformeln anders als gewohnt?
  • Sind die Antwortsätze kürzer als üblich oder passen sie nicht genau zu ihrer Frage?

Falls einer oder mehrere dieser Punkte zutreffen, ist es gut möglich, dass es sich um einen fingierten Anruf handelt.

Doublecheck: Überprüfen Sie die Identität des Anrufers

Beenden Sie das Gespräch und rufen Sie die Gesprächsperson zurück. Wenn der Angreifer eine gefälschte Telefonnummer benutzt hat, werden Sie nicht beim Angreifer, sondern bei der echten Person herauskommen und damit ist der Angriff abgewehrt!

Minimalism!

Seien Sie sich bewusst, dass das Öffentlichmachen Ihrer Stimme gegen Sie verwendet werden kann und es potenziellen Angreifern einfacher macht.

Fazit

AI Voice Cloning hat ein hohes Betrugspotenzial. Dies lässt sich insbesondere auf zwei Faktoren zurückführen: 

  1. einfache Zugänglichkeit:
    Potenzielle Täter benötigen kaum technisches Wissen um AI Voice Cloning für Ihre Zwecke zu nutzen
  2. günstiger Preis:
    potenzielle Anfreifer müssen für die Nutzung der Voice Cloning Technik nicht tief oder gar nicht in die Tasche greifen. 

Diese zwei Faktoren führen zu sehr niedrigen Barrieren in der Nutzung. Es gibt zwar erste Erkennungstechnologien für geklonten Stimmen, aber der wohl effektivste Schutz bleibt: Security Awareness. Und zwar sowohl im privaten als auch im unternehmerischen Umfeld.

Miriam Strauß

Marketing & Kommunikation
Miriam Strauß beschäftigt sich täglich mit den neuesten Entwicklungen im Bereich KI und Marketing und ist bei Concepture für die Kommunikation zuständig.

Jetzt weiterlesen!

Cybersicherheit

Deepfakes: More Than Just a Digital Facelift – A Cybersecurity Threat

Cybersicherheit, Managementberatung, Sicherheitsberatung

Sicherheit 2025: Die Top-Trends, die kein Unternehmen ignorieren kann

Die Welt wird immer vernetzter – und damit auch die Bedrohungen. Egal, ob physisch oder digital: Unternehmen stehen vor Herausforderungen, die sich nicht mehr in altbewährte Muster pressen lassen. Die Burgmauern? Einst ein starkes Bild für Sicherheit. Heute ein nostalgischer Rückblick auf einfachere Zeiten. Bedrohungen machen vor keiner Grenze Halt – weder im digitalen Raum noch in der physischen Welt.

Fill the Gap, Managementberatung, Sicherheitsberatung

Nach der Zeitumstellung: Wie falsche Zeitstempel in Sicherheitsanlagen zum Problem werden

Die Winterzeit ist da – und mit ihr steigt das Risiko fehlerhafter Zeitstempel in Sicherheitsanlagen. Erfahren Sie, wie solche Abweichungen entstehen und warum regelmäßige Prüfungen sowie automatische Uhrzeitsynchronisation entscheidend sind, um Beweissicherung und Nachvollziehbarkeit zu gewährleisten.

Alternativ zum Formular können Sie uns auch eine E-Mail an info@concepture.de senden.