Künstliche Intelligenz

Googles AI entwickelt eigenständig Verschlüsselung

von - 31.10.2016
Roboter Security
Foto: Tatiana Shepeleva / Shutterstock.com
Wenn Technik sich selbst absichert: Forscher von Googles Deep-Learning-Projekt "Google Brain" haben ihre AI nun eigenständig neue Verschlüsselungsverfahren entwickeln lassen.
Verschlüsselungsverfahren bilden die Grundlage der meisten IT-Sicherheitskonzepte. Sie ermöglichen den sicheren Austausch von Daten im Netz und sorgen dafür, dass sensible Dokumente nicht in die falschen Hände gelangen.
Nun haben die Google-Forscher Martin Abadi und David G. Andersen des Deep-Learning-Projekts "Google Brain" eine neue Verschlüsselungsmethode entwickelt beziehungsweise entwickeln lassen. Die Forscher haben verschiedene neurale Netze damit beauftragt, eine abhörsichere Kommunikation aufzustellen.
Im Detail sah das Experiment vor, dass die neuralen Netze "Alice" und "Bob" sich gegenseitig geheime Nachrichten zusenden, während das dritte Netz "Eve" die versendeten Nachrichten abfangen sollte. Informationen zu kryptografischen Methoden haben die Forscher den neuralen Netzen dabei nicht auf den Weg gegeben. Alle entstandenen Verschlüsselungsverfahren sind damit gänzlich auf Basis von Googles AI entstanden.
Wie die Forscher in ihrem Paper festgehalten haben, war der Nachrichtenaustausch für Eve zunächst recht einfach zu überwachen. Nach 15.000 versendeten Nachrichten wendete sich allerdings das Blatt, als es Alice und Bob gelang, eine wirkungsvolle Verschlüsselung auf die Beine zu stellen. Fortan übertrugen die Netzwerke ihre Nachrichten nur noch verschlüsselt nach dem Ende-zu-Ende-Prinzip. Eve war dadurch nicht mehr in der Lage, die Kommunikation zu überwachen. Immerhin: Da es sich bei den Nachrichten um einen simplen Binärcode, bestehend aus Nullen und Einsen, handelte, konnte Eve wenigstens die Hälfte der Nachrichten auf gut Glück erraten.

Verschlüsselung taugt nicht für die Praxis

Praxis-tauglich ist die Verschlüsselung durch neurale Netze indessen nicht. So konnten die Forscher beispielsweise nicht nachvollziehen, welche genaue Methode von Alice und Bob verwendet wurde, da lediglich das Endresultat der Kommunikation vorlag. Entsprechend ist es auch nicht möglich, die Sicherheit der neuen Methode zu verifizieren.
Dennoch belegt das Experiment der Google-Forscher, dass neurale Netze auch für die Entwicklung von Sicherheitstechnologien einsetzbar sind. Da maschinelles Lernen aber ohnehin noch in den Kinderschuhen steckt, wird man in Zukunft bestimmt noch mehr von neural-gestützter Kryptographie hören. Der vollständige, 15-seitige Bericht der Forscher ist frei als PDF zugänglich.