Neues IT-Sicherheitslagebild

BSI warnt vor dem Einsatz von KI durch Cyber-Kriminelle

von - 22.05.2019
Gefährliche KI
Foto: Alexander Limbach / shutterstock.com
Viele Antivirenhersteller setzen mittlerweile auf KI-Techniken, um die Erkennungsleistung ihrer Produkte zu verbessern. Aber auch die Gegenseite nutzt Künstliche Intelligenzen.
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) und die französische Agence nationale de la sécurité des systèmes d'information (ANSSI) sehen den Einsatz von KI-Lösungen nicht nur als Chance, sondern auch als Gefahr für die IT-Sicherheit. „Die Qualität von Cyber-Angriffen hat in Deutschland ebenso wie in Frankreich eine neue Dimension erreicht, die in Kombination mit der zunehmenden Digitalisierung eine Bedrohungslage schafft, der wir entschlossen begegnen müssen“, sagte BSI-Präsident Arne Schönbohm bei der Vorstellung eines gemeinsamen IT-Sicherheitslagebilds der beiden Behörden.

Positiv- und Negativbeispiele

Die Fortschritte bei der Künstlichen Intelligenz sehen sowohl das BSI als auch die ANSSI als wichtigen „unterstützenden Bestandteil vieler IT-Sicherheitsanwendungen und Abwehrstrategien“. Als Positivbeispiele nennen sie unter anderem die Erkennung von Schadsoftware, von Anomalien im Netzwerkverkehr und von Angriffen auf biometrische Identifikationssysteme sowie die Härtung von Krypto-Systemen gegen die sogenannten Seitenkanalangriffe. Bei diesen Attacken wird nicht ein kryptographisches Verfahren angegriffen, sondern die jeweilige Implementierung.
Aber es gebe auch neue Gefahren durch den Einsatz von KI auf Seiten der Cyber-Kriminellen. So könne KI auch genutzt werden, um Gesichtserkennungssysteme anzugreifen, Captcha-Aufgaben zu lösen oder um Social Engineering sowie Seitenkanalangriffe gegen Krypto-Systeme durchzuführen. Eine weitere Bedrohung sehen die beiden Behörden in der gezielten Kompromittierung von Daten, die zum Training von Künstlichen Intelligenzen eingesetzt werden. Diese Angriffsmethode wird „Data Poisoning“ genannt. Damit könne man einer KI unerwünschte Fähigkeiten beibringen, die dann für Angriffe ausgenutzt werden können. Das BSI und die ANSSI fordern jetzt deswegen „sichere Lieferketten für KI-Trainingsdaten“.
Verwandte Themen