KI-Vishing: Wenn eine bekannte Stimme zum Sicherheitsrisiko wird
Verfasser: pr-gateway on Wednesday, 10 September 2025
Kommentar von Patrick Lehnis, Account based Marketing Manager für Specops ein Unternehmen von Outpost24
Künstliche Intelligenz verändert die Bedrohungslage im Bereich Social Engineering grundlegend - insbesondere durch sogenanntes Voice-Phishing, kurz Vishing. Bei dieser Methode inszenieren Cyberkriminelle mit KI-generierten Stimmen täuschend echte Anrufe, um Mitarbeiter zu Zahlungen oder zur Herausgabe sensibler Informationen zu bewegen.
Wenn KI die Stimme von Vorgesetzten imitiert
Die Methode ist ebenso raffiniert wie gefährlich: Angreifer nutzen öffentlich zugängliche Sprachaufnahmen - etwa aus Videos, Webinaren, öffentlichen Auftritten wie Interviews oder Podcasts -, um innerhalb weniger Minuten eine täuschend echt klingende synthetische Stimme zu erzeugen. Diese Angriffstechnik ist bereits jetzt so überzeugend, dass selbst geschulte Mitarbeiter kaum einen Unterschied erkennen. Was früher eine technische Spielerei war, wird heute gezielt für kriminelle Zwecke eingesetzt.
Der psychologische Hebel dabei: Eine vertraute Stimme suggeriert Legitimität. Kombiniert mit Zeitdruck ("Es muss sofort gehen!") oder Autorität ("Ich bin"s - dein Chef!"), setzen Angreifer ihre Opfer massiv unter Druck. Diese emotionale Manipulation macht KI-Vishing so wirksam und gefährlich.
