Vertrauen ist die Grundlage für Zusammenarbeit, Handel und unternehmerische Entscheidungen. Im digitalen Zeitalter wird Vertrauen durch Unterschriften, Stimmen und virtuelle Interaktionen geschaffen. Doch mit dem rasanten Fortschritt der Deepfake-Technologie schwindet dieses Vertrauen, wodurch neue Risiken entstehen, die jahrzehntelange Investitionen in die Cyber-Sicherheit umgehen.
In dieser Folge von The AI Forecast spricht Paul Muller mit Jim Brennan, Chief Product und Technical Officer bei GetReal Security darüber, wie KI-gestützte Authentizitätsbedrohungen die Sicherheitsgleichung von Unternehmen verändern. Ihr Gespräch zeigt, warum Deepfakes das neue Gesicht des Social Engineering sind, warum die Technologie – und nicht das menschliche Auge – die Verteidigung anführen muss und wie Führungskräfte ihre Unternehmen und Mitarbeiter schützen können.
Paul: Jahrzehntelange digitale Transformation hat uns die Möglichkeit zur sofortigen Zusammenarbeit gegeben. Doch nun ist genau das, worauf wir uns verlassen – das kleine Fenster auf unseren Bildschirmen – zur neuen Angriffsfläche geworden. Wenn ich dem, was ich sehe, nicht trauen kann, bleibt mir nur die teure, langsame, physische Interaktion als Ausweg.
Jim: Ein CIO sagte zu mir: „Dieses kleine Fenster ist der Ort, an dem ich mein Geschäft führe, und jetzt kann ich nichts mehr trauen, was hindurchkommt.“ Das ist tiefgründig. Das menschliche Auge kann diesen Grad an Raffinesse nicht erkennen. Die meisten Leute tippen auf 50/50. Deshalb muss die Technologie, nicht der Instinkt, die Verteidigung anführen.
Vertrauen fördert die Zusammenarbeit, und Zusammenarbeit ist der Motor des Geschäfts. Doch Deepfakes untergraben dieses Vertrauen auf der persönlichsten Ebene – den täglichen Gesprächen und Videoanrufen, auf die Führungskräfte angewiesen sind. Jim beschreibt dies als eine neue, auf den Menschen ausgerichtete Interaktionsebene, die er als „Display-Ebene“ bezeichnet und die Paul scherzhaft als „Liar 8“ bezeichnet hat – eine völlig neue Angriffsfläche. Im Gegensatz zu Firewalls und Angrifferkennungssystemen handelt es sich hierbei nicht um eine technische, sondern um eine menschliche Ebene. Das Medium, über das Führungskräfte kommunizieren und Entscheidungen treffen, ist nun anfällig für Manipulationen.
Paul: Besteht für Aufsichtsräte die Gefahr, Deepfakes als etwas abzutun, das ihnen niemals passieren könnte?
Jim: Man muss es nur einmal sehen, um zu glauben, dass es echt ist. Die eigentliche Herausforderung besteht jedoch darin, den Vorständen zu verdeutlichen, was dies für ihr Geschäft bedeutet. Wenn Sie sich auf große, reißerische Geschichten stützen, ignorieren sie diese möglicherweise einfach. Tatsächlich ereignen sich bereits kleinere Vorfälle im Alltag, die weitaus mehr Resonanz finden.
Als Paradebeispiel nennt er betrügerische Einstellungsverfahren. Angreifer nutzen Deepfakes, um sich als Bewerber auszugeben und HR-Prozesse zu umgehen. Mal geht es einfach nur um finanziellen Gewinn, zum Beispiel darum, sich einen Einstellungsbonus zu sichern. In anderen Fällen geht es um weitaus ernstere Angelegenheiten: Akteure aus dem Umfeld von Nationalstaaten schleusen Spione in Unternehmen ein, um zu spionieren oder im großen Stil zu betrügen. ‘
Jim: In den letzten drei Monaten hat jedes Fortune-500- und Fortune-1000-Unternehmen, mit dem ich gesprochen habe, von Problemen mit betrügerischen Einstellungsversuchen berichtet. HR-Teams sind nicht darauf ausgelegt, wie Angreifer zu denken, was die Mitarbeitergewinnung zu einem leichten Ziel macht.
Paul: Wir haben schon immer Technologie eingesetzt, um Technologie zu bekämpfen – Firewalls, Antivirenprogramme, Angriffserkennung. Können wir dasselbe gegen Deepfakes tun?
Jim: Dieses Problem lässt sich nicht einfach durch Training lösen. Es reicht nicht aus, ein Black-Box-Modell aufzustellen und es mit realen und gefälschten Beispielen zu füttern. Der bessere Ansatz besteht darin, mithilfe der digitalen Forensik die Spuren zu untersuchen, die Deepfakes hinterlassen – seien es Gesichtsverzerrungen, Tonstörungen oder Unstimmigkeiten in der Beleuchtung – und diese Signale dann mithilfe von maschinellem Lernen im großen Maßstab zu finden.
Jim erklärte, dass wirksame Abwehrmaßnahmen über generische KI hinausgehen und „unter die Oberfläche“ von Generierungstools blicken müssen, um subtile Spuren und Artefakte zu identifizieren. In der Praxis können Unternehmen diese Schutzmaßnahmen über APIs von Plattformen wie Zoom oder Teams bereitstellen, wodurch Installationen auf Endgeräten vermieden und die Abwehrmechanismen skalierbar bleiben. Gleichzeitig ist Sensibilisierung entscheidend – Webinare, Demos und Simulationen geben den Mitarbeitern den Kontext, innezuhalten und nachzudenken, bevor sie handeln. Technologie und Schulung bilden die zwei Schichten, die zum Schutz des digitalen Vertrauens benötigt werden.
Jim: Wir leben in einer Zeit, in der wir nichts mehr glauben können, was wir in diesem Fenster oder auf diesem Bildschirm sehen. Es sind neue Richtlinien für Unternehmen und neue Arbeitsweisen erforderlich.
Die Bedrohungslandschaft hat sich verändert. Deepfakes sind nicht nur ein Zukunftsrisiko. Sie sind hier und untergraben sowohl die Entscheidungsfindung in Unternehmen als auch die persönliche Sicherheit. Von betrügerischen Einstellungen bis hin zu KI-geklonten Erpressungsanrufen ist digitales Vertrauen nicht mehr garantiert.
Der Weg nach vorn ist dreigeteilt:
Verfolgen Sie das vollständige Gespräch mit Jim Brennan auf The AI Forecast auf Spotify, Apple Podcasts und YouTube.
This may have been caused by one of the following: