Weniger Risiken, mehr Chancen durch Datenschutz
Die vier Prinzipien von PEC
von Thomas Hafen - 19.07.2022
Bei Privacy-Enhancing Computation gibt es vier Möglichkeiten, sensible Daten zu schützen: verschlüsseln, verschleiern (Obfuscation), entfernen oder erst gar nicht erheben. Bei der homomorphen Verschlüsselung (Homomorphic Encryption, HE) etwa bleiben die Eigenschaften der Basisdaten trotz Verschlüsselung erhalten. Laut Gartner wird es aber noch fünf bis zehn Jahre dauern, bis es zu einem großflächigen produktiven Einsatz von HE kommt. Einige Provider bieten jedoch bereits Services an (siehe Tabelle auf Seite 32). Berichten zufolge experimentiert auch Facebook/Meta mit HE. Ziel ist es, individuelle Werbung in Whatsapp einblenden zu können, ohne die verschlüsselte Kommunikation aufbrechen zu müssen.
Ein Beispiel für Verschleierung ist Data Poisoning. Dieses Verfahren kommt in erster Linie bei der Gesichtserkennung zum Einsatz. Dabei werden in Bildern nur wenige Pixel verändert. Dies genügt jedoch, um Gesichtserkennungssysteme wie Microsoft Azure Face API oder Amazon Rekognition auszutricksen. Das SAND Lab (Security, Algorithms, Networks and Data) der Universität Chicago hat mit Fawkes1 eine Software entwickelt, mit der Anwender ihre öffentlich zugänglichen Bilder verschleiern können.
Bei der Anonymisierung werden sensible Informationen vor der Weitergabe oder Verarbeitung von Datensätzen gelöscht. Die Systeme erkennen die zu entfernenden Daten entweder anhand vorgegebener Templates oder lernen selbstständig (Deep Natural Anonymization). So bietet der deutsche KI-Spezialist Brighter AI mit Brighter Redact ein System, das eine KI-basierte Anonymisierung von Bildern und Videos ermöglicht. Die Lösung kommt unter anderem in einem Pilotprojekt der Deutschen Bahn zum Einsatz, wo sie für die Auslastungsmessung in Zügen und S-Bahnen verwendet wird.
Erst gar nicht übertragen werden Informationen in Konzepten wie Federated Learning. Dabei lädt sich ein Teilnehmer beispielsweise einen Algorithmus auf sein Gerät, der dort mit den persönlichen Daten trainiert wird. Der Anwender spielt nur den trainierten Algorithmus zurück, personenbezogene Daten werden nicht übertragen. Google nutzt den Ansatz bereits, um die Suchvorschläge auf Android-Geräten zu optimieren.
PEC in Gesundheit und Verkehr
Große Bedeutung haben datenschutzfreundliche Technologien besonders im Gesundheitswesen und im Verkehrssektor. Es braucht große Mengen Patientendaten, um neuronale Netze für die Krebsdiagnostik oder die Entwicklung von Medikamenten zu trainieren. Die Risiken, dass sie in falsche Hände gelangen, sind hoch. Das Start-up Curai, ein Anbieter KI-basierter Medizin-Apps, nutzt deshalb synthetische Daten, um seine Systeme ohne sensible Patienteninfos trainieren zu können. Dafür wurden 400.000 Krankenakten simuliert und mit einem gefalteten neuronalen Netzwerk (Convolutional Neural Network, CNN) verarbeitet. Das so trainierte System soll zur Diagnostik eingesetzt werden und Patienten remote beraten können.
Das deutsche Start-up Ebenbuild setzt in einem Forschungsprojekt, das mit dem Münchner Klinikum Rechts der Isar durchgeführt wird, auf Confidential Computing. Ziel ist es, einen digitalen Zwilling der menschlichen Lunge zu entwickeln, um Beatmungstherapien individueller gestalten und die mit der Beatmung verbundenen Schäden minimieren zu können. Die Verarbeitung erfolgt in der Public Cloud, die Informationen sind aber durchgehend verschlüsselt. Berechnungen werden in einem besonders geschützten Bereich des Prozessors, der Enklave, ausgeführt.
Im Straßenverkehr ist es vor allem der Trend zum autonomen Fahren, der die Analyse großer Datenmengen erfordert. Schon heute sind moderne Fahrzeuge mit einer Vielzahl von Sensoren und Kameras ausgestattet, die große Mengen an sensiblen Daten erfassen. Wegen dieser Sammelwut erhielt der E-Mobilhersteller Tesla 2020 den Big Brother Award, einen Preis, der jährlich für eklatante Datenschutzverstöße vergeben wird.
Besonders sauer stieß den Juroren auf, dass Tesla nicht nur permanent Daten im Fahrzeug, sondern auch in dessen Umgebung erfasst. „Wenn Menschen gefilmt und aufgezeichnet werden, die nur an einem Auto vorbeigehen, ohne dass sie sich konkret verdächtig machen, ist dies klassische illegale Vorratsdatenspeicherung“, sagte Datenschutzexperte Thilo Weichert anlässlich der Verleihung.
Eine Bereinigung oder Verschleierung der von einem Fahrzeug erfassten Daten könnte das Problem lösen. So nutzt der französische Autozulieferer Valeo Deep Natural Anonymization, um personenbezogene Informationen aus Bildern zu entfernen, die mit Fisheye-Fahrzeugkameras aufgenommen wurden. Marian Gläser sieht in diesem Weg eine Chance für die europäische Autoindustrie: „Wenn es gelingt, sensible Daten in Fahrzeugen zu verarbeiten, ohne dabei gegen Datenschutzvorschriften zu verstoßen, dann ist das ein echter Wettbewerbsvorteil.“