Die dunkle Seite der Künstlichen Intelligenz

Wenn KI die KI austrickst

von - 09.04.2019
Angreifer können sich auch die Tatsache zunutze machen, dass neuronale Netze völlig anders lernen und Muster erkennen, als dies Menschen tun. Gezielte kleine Störungen, die von Menschen kaum wahrgenommen werden, können die KI komplett aus der Bahn werfen, die Erkennungsrate drastisch verringern oder Klassifizierungen gar ins Gegenteil verkehren. Chawin Sitawarin von der Princeton University und seine Kollegen demonstrieren in der Studie „DARTS: Deceiving Autonomous Cars with Toxic Signs“, wie sich autonome Fahrzeuge durch Manipulation von Verkehrszeichen in die Irre führen lassen, die für einen Menschen nicht sichtbar sind oder irrelevant erscheinen.
Zur Malware-Generierung könnte Adversarial AI eingesetzt werden, um Viren, Trojaner und Würmer so zu modifizieren, dass sie nicht nur einer Signaturerkennung entgehen, sondern auch mit Hilfe Künstlicher Intelligenz nicht entdeckt werden. „Jede Malware-Erkennung kann theoretisch überlistet werden, das gilt auch für KI-basierte Methoden“, unterstreicht Rajarshi Gupta. Angreifer müssten allerdings Millionen von Malware-Varianten ausprobieren, um die KI zu knacken, so der Avast-Experte weiter.
David Wollmann
David Wollmann
Executive Consultant bei NTT Security
www.nttsecurity.com
Foto: Bernd Ducke
„Security Awareness wird angesichts der neuen KI-basierten Bedrohungen noch wichtiger.“

Fazit

Verbrecher machen keine Werbung für ihre Produkte - zumindest nicht in öffentlich zugänglichen Quellen. Deshalb ist es unklar, wie weit Cyberkriminelle bereits KI-basierte Methoden für ihre Angriffe nutzen. Die Wahrscheinlichkeit, dass sie es tun, ist hoch, denn die Vorteile sind offensichtlich. Angriffe lassen sich mit Hilfe von Machine Learning und anderen Methoden effektiver gestalten, besser skalieren und effizienter durchführen. Der Einstieg ist zudem niedrigschwellig. Viele Tools, die für Cyberangriffe missbraucht werden könnten, sind frei zugänglich und auch unter Fachkräftemangel dürfte die dunkle Seite angesichts der Verdienstmöglichkeiten nicht leiden. Unternehmen müssen daher technisch auf dem neuesten Stand sein und es auch bleiben. Signaturbasierte Malware-Erkennung und Perimetersicherheit reichen schon heute nicht mehr aus und werden in Zukunft noch weniger gegen intelligente Angriffe ausrichten können.
Technik allein wird aber nicht genügen, um etwa Deep­fake-basierte Angriffsszenarien abwehren zu können. Veränderungen in der Unternehmenskultur und in den Prozessen sind genau so wichtig. Entscheidungswege müssen so gestaltet sein, dass ein Geschäftsführerbetrug schwieriger wird, und Mitarbeiter müssen sensibilisiert werden. Dank KI wird es Angreifern künftig ein Leichtes sein, Informationen aus Facebook, Twitter, Instagram und anderen Social-Media-Kanälen zu analysieren, per Knopfdruck lohnende Ziele zu identifizieren und eine an das Opfer angepasste Angriffsstrategie zu generieren.
Verwandte Themen