Missbrauch von KI

Die dunkle Seite der Künstlichen Intelligenz

von - 09.04.2019
Künstliche Intelligenz
Foto: ktsdesign / shutterstock.com
KI hat sich in vielen Bereichen als sehr nützlich und effizient herausgestellt. Leider wissen aber auch Cyberkriminelle, wie sie die Technologie für ihre Zwecke einsetzen.
Wenn Barack Obama in einem Youtube-Video Donald Trump als „Volltrottel“ bezeichnet, werden ihm sicher viele zustimmen. Natürlich würde der Ex-US-Präsident so etwas nie über seinen Nachfolger sagen - zumindest nicht öffentlich, und er hat es auch nicht getan. Das täuschend echte Filmchen, das mittlerweile fast sechs Millionen Aufrufe verzeichnet, ist ein sogenannter Deepfake, ein mit Hilfe von künstlichen neuronalen Netzen manipuliertes Video. Die dafür genutzte App basiert auf dem von Google entwickelten
Deepfake
Deepfake-Videos: Solche täuschend echte Filmchen, die mit Hilfe von künstlichen neuronalen Netzen manipuliert wurden, lassen sich mit wenig Aufwand erstellen.
(Quelle: NTT Security)
Machine-Learning-Framework Tensorflow. „Gesichter in Videos auszutauschen, ist nichts Neues“, sagt David Wollmann, Executive Consultant beim Sicherheitsspezialisten NTT Security, „aber der Aufwand dafür ist dramatisch gesunken.“
Doch nicht nur Videos können mit Hilfe von Machine-Learning-Methoden gefälscht werden, auch Stimmen lassen sich täuschend echt nachahmen. Während noch vor wenigen Jahren Aufnahmen von vier bis fünf Stunden Länge notwendig waren, um das digitale Abbild eines Sprechers zu erzeugen, können Unternehmen wie Lyrebird heute nach eigenen Angaben auf Basis von nur einer Minute Audiomaterial einen Chatbot mit fremder Stimme sprechen lassen. Auch Google arbeitet an einer Optimierung der Sprachsynthese durch Machine-Learning-Methoden: Das Projekt WaveNet basiert auf einem vollständig faltenden neuronalen Netzwerk (Convolutional Neural Network, CNN) und liefert laut den Entwicklern eine wesentlich natürlichere Sprachwiedergabe als andere Text-to-Speech-Systeme.
Deepfakes und Stimm-Imitationen hatten bisher vor allem Prominente und Politiker zum Ziel. Zukünftig könnten sie auch die Wirtschaft bedrohen. So ließe sich etwa der gefürchtete C-Level-Fraud, bei dem Kriminelle sich als hochrangige Manager ausgeben, nicht nur per E-Mail, sondern auch per Telefon oder Video-Chat durchführen.

Gefahr für die Demokratie

Organisationen wie die Defense Advanced Research Projects Agency (DARPA) forschen derzeit an Möglichkeiten, Deep-fakes zu identifizieren, indem sie sogenannte kompetitive neuronale Netze (Generative Adversarial Networks, GAN) einsetzen. Die Technik besteht im Wesentlichen aus zwei künstlichen neuronalen Netzen, die versuchen, sich gegenseitig auszutricksen. In bestimmten Fällen ist es relativ leicht möglich, Deepfakes zu erkennen, etwa wenn die Gesichts­simulation nur auf Standbildern basiert. „Da auf Fotos in der Regel die Augen einer Person immer geöffnet sind, kann das Blinzeln nicht korrekt simuliert werden“, erklärt dazu Sicherheitsexperte Wollmann, „das lässt sich mit Hilfe von KI detektieren.“
Wesentlich schwieriger wird dies allerdings, wenn Videos als Basismaterial verwendet werden. Langfristig besteht sogar die Gefahr, dass sich Deepfakes gar nicht mehr von echtem Material unterscheiden lassen. Das befürchten zumindest die Rechtswissenschaftler Bobby Chesney und Danielle Citron, Autoren der Studie „Deep Fakes: A Looming Chal­lenge for Privacy, Democracy, and National Security“. Eine solche Entwicklung könnte sogar massive Auswirkungen auf die Strafverfolgung haben. Schließlich verlieren Audio- und Videobeweise ihre Aussagekraft, wenn echtes und gefälschtes Material nicht mehr unterscheidbar ist.
David Wollmann empfiehlt Unternehmen, sich durch Aufklärung gegen Deepfakes zu wappnen: „Security Awareness wird angesichts der neuen KI-basierten Bedrohungen noch wichtiger.“ Auch organisatorische Maßnahmen können das Risiko verringern: „Unternehmen sollten Prozesse implementieren, die eine Deepfake-Attacke erschweren.“ Entscheidungen von größerer Tragweite müssten nach dem Vier-Augen-Prinzip von mindestens zwei Mitarbeitern überprüft und genehmigt werden, Anweisungen per E-Mail oder Telefon sollten prinzipiell erst nach Bestätigung über einen weiteren Kanal ausgeführt werden. Das erfordere allerdings ein Umdenken der oberen Führungsriege: „Auch das Management muss sich der Gefahr bewusst sein und sich an vorgegebene Entscheidungsprozesse halten“, betont der Sicherheitsexperte. „Es geht ja nicht darum, Prozesse tagelang zu verzögern, sondern das Unternehmen als Ganzes zu schützen.“
Verwandte Themen