Drei Prinzipien schützen vor KI-gestützten Voice-Angriffen

Angreifer setzen zunehmend auf KI-gestützte Voice-Angriffe: Sie kom­bi­nie­ren Caller-ID-Spoofing mit Voice Cloning und geben sich als IT-Support oder Bankmitarbeiter aus. Mit der neuen Technologie FOICE lassen sich Stimmen sogar allein aus Fotos erzeugen. Unternehmen sollten deshalb auf Ve­ri­fi­ka­ti­on statt blindem Vertrauen, klare Prozesse für sensible Vorgänge und gezieltes Awareness-Training setzen.

← Zurück zum security Archiv (25.03.2026)