KI soll der IT-Security unter die Arme greifen
Erst am Anfang der Entwicklung
von Jens Stark - 01.06.2017
Allerdings steht man beim Einsatz künstlicher Intelligenz in der IT-Security noch ziemlich am Anfang, gibt Jan Alsenz zu bedenken. Alsenz ist bei Oneconsult, einem Schweizer Spezialisten für Penetration Testing, als Chief Research Officer tätig. "Aktuell werden überwiegend auf Regeln und Binärmustern basierende Technologien eingesetzt", berichtet er und betont, dass auch die meisten Systeme, die in Kürze auf den Markt kämen, hierauf aufbauten. Auf einer großen Datenbasis werde einerseits der komplette Netzwerkverkehr überwacht oder das Verhalten von Programmen und Nutzern analysiert. Andererseits würden statistische und heuristische Analysen der Daten durchgeführt, um Anomalien zu erkennen. Fast alle bekannten Security-Systeme wie Antiviren-Software, Spam-Erkennungslösungen und Systeme zur Erkennung und Abwendung von Einbruchsversuchen ins Netzwerk verwendeten diese Komponenten. So gibt es ihm zufolge seit Kurzem verhaltensbasierte Malware-Erkennung oder es könnten Anomalien im Netzwerk festgestellt werden.
Großes Potenzial
Entsprechend groß ist das Potenzial von KI-Methoden. Letztlich wird an Systemen gefeilt, welche die Effektivität von Cybersecurity-Spezialisten erhöhen sollen. "Stellen Sie sich vor, dass uns nicht nur Siri, Cortana oder Alexa unterstützen, sondern, dass wir dereinst eine persönliche KI zur Seite gestellt bekommen. Diese lernt unsere Art des Arbeitens, entlastet uns von Routine und bereitet uns Informationen so auf, dass wir die Zusammenhänge einfacher und schneller erkennen können", skizziert Häni von PwC seine Zukunftsvision. "Von diesem Szenario sind wir zwar noch ein paar Jahre entfernt, aber die Forschung macht hier große Fortschritte."
Alle derzeit entwickelten Lösungen sind daher noch in einer Lernphase. IT-Security-Spezialisten beurteilen die Ergebnisse der Systeme und füttern diese wieder mit ihren Erkenntnissen. Im Grunde passiert derzeit im Security-Bereich nichts anderes, als was man aus anderen KI-Anwendungen kennt. So fütterten Google und Facebook ihre Bild- und Gesichtserkennungssysteme jahrelang mit dem Feedback der Anwender, bevor erste Automatismen zu greifen begannen. Und selbst danach sind die KI-Systeme noch auf den
Input des Menschen angewiesen, etwa um eine falsche Zuordnung zu korrigieren, wenn ein Bild einer falschen Person zugewiesen wird.
Alle derzeit entwickelten Lösungen sind daher noch in einer Lernphase. IT-Security-Spezialisten beurteilen die Ergebnisse der Systeme und füttern diese wieder mit ihren Erkenntnissen. Im Grunde passiert derzeit im Security-Bereich nichts anderes, als was man aus anderen KI-Anwendungen kennt. So fütterten Google und Facebook ihre Bild- und Gesichtserkennungssysteme jahrelang mit dem Feedback der Anwender, bevor erste Automatismen zu greifen begannen. Und selbst danach sind die KI-Systeme noch auf den
Input des Menschen angewiesen, etwa um eine falsche Zuordnung zu korrigieren, wenn ein Bild einer falschen Person zugewiesen wird.