Zertifizierungen für KI

Künstliche Intelligenz muss Vertrauen schaffen

von - 20.01.2020
Künstliche Intellligenz
Foto: Profit_Image / shutterstock.com
Gütesiegel und Zertifikate für KI-Lösungen sind noch Mangelware. Auch Ethik-Grundsätze sind extrem wichtig. Diese müssten aber zunächst definiert werden.
Im Kontext zunehmender Automatisierung und auf Künstlicher Intelligenz (KI) basierender Anwendungen wird das Thema Ethik zu einem immer wichtigeren Faktor für die digitale Wirtschaft, so die Studie „Künstliche Intelligenz, Smart Home, vernetzte Gesundheit - Ethik in der Digitalen Wirtschaft” des Bundesverbands Digitale Wirtschaft (BVDW).
Drei Viertel der befragten Verbraucher in Deutschland (74 Prozent) gaben in einer repräsentativen Umfrage von Kantar TNS im Auftrag des BVDW an, dass ethische Grundsätze bereits bei der Entwicklung neuer Produkte einen hohen oder sehr hohen Stellenwert haben sollten. Die parallel durchgeführte Umfrage unter BVDW-Mitgliedsunternehmen belegt, dass mehr als die Hälfte der Unternehmen (55 Prozent) das als genauso wichtig einstuft.
Einigkeit herrscht auch bei der Frage, wer die Einhaltung ethischer Standards überwachen soll: 46 Prozent der Verbraucher und 51 Prozent der Digitalunternehmen gaben an, dass diese Aufgabe eine unabhängige Prüfinstanz übernehmen sollte.
Vor einer Ethikprüfung bei Künstlicher Intelligenz müssen allerdings zuerst noch die Kriterien festgelegt sein, die eine KI erfüllen soll.

KI fehlt „Brief und Siegel“

„Künstliche Intelligenz ist eine Schlüsseltechnologie, die enormes Potenzial für die deutsche Wirtschaft birgt. Wir brauchen aber verlässliche Normen und Standards, um ,KI made in Germany weiter voranzubringen“, erklärte der Staats­sekretär im Bundesministerium für Wirtschaft und Energie (BMWi), Ulrich Nussbaum, auf der Auftaktveranstaltung der Normungsroadmap Künstliche Intelligenz, die vergangenen Oktober im BMWi stattfand. Dort diskutierten rund 300 Experten und Interessierte aus Wirtschaft, Gesellschaft, Politik und Wissenschaft über die notwendige Normierung bei KI. „Die Roadmap wird eine Übersicht über bestehende Normen und Standards zu KI-Aspekten umfassen und insbesondere Normungsbedarfe nach ihrer Dringlichkeit geordnet aufzeigen - vor allem hinsichtlich Qualität, Nachvollziehbarkeit, Erklärbarkeit und Verlässlichkeit von KI“, so Wolfgang Wahlster, Mitglied des Lenkungskreises der Plattform Lernende Systeme und Wissenschaftler im Bereich KI.
Ulrich Nussbaum
Dr. Ulrich Nussbaum
Staatssekretär im Bundesministerium für
Wirtschaft und Energie
www.bmwi.de
Foto: BMWi
„Künstliche Intelligenz braucht Normen und Standards.“
Christoph Winterhalter, Vorstandsvorsitzender des Deutschen Instituts für Normung (DIN), ergänzte: „Unser Ziel ist es, einen sicheren und verlässlichen Handlungsrahmen zu schaffen, der deutschen Innovationen und Unternehmen, insbesondere aus dem Mittelstand, den Zugang zum globalen Markt öffnet und gleichzeitig die Umsetzung von europäischen Wertmaßstäben in der KI fördert.“ Vorgestellt werden soll die Normungsroadmap Künstliche Intelligenz kommenden Herbst anlässlich des Digital-Gipfels der Bundesregierung.
Doch woran können sich Unternehmen heute orientieren, wenn sie mit KI arbeiten wollen? Laut der aktuellen CIO-Umfrage von Gartner hat sich der Anteil der Unternehmen, die bereits KI einsetzen, im Vergleich zum Vorjahr fast vervierfacht - von 4 Prozent 2018 auf 14 Prozent im Jahr 2019, mit weiter steigender Tendenz.
Die Wahl einer KI-Lösung kann Folgen haben für die Compliance, sollte also nicht vorschnell und ungeprüft erfolgen. Für den Datenschutz zum Beispiel haben die Aufsichtsbehörden ihre rechtlichen Anforderungen an KI in der sogenannten Hambacher Erklärung dargelegt. Dazu gehören Kriterien wie technische und organisatorische Maßnahmen, etwa Pseudonymisierung, Schutz vor Manipulationen und Datenminimierung. Insbesondere muss eine KI transparent, nachvollziehbar und erklärbar sein, so die Datenschützer.
Dirk Kretschmar
Dirk Kretzschmar
Geschäftsführer TÜViT
www.tuvit.de
Foto: TÜViT
„Stand heute gibt es überhaupt keine wissenschaftlich fundierten Nachweise oder gar Zertifizierungen.“
Anwenderunternehmen dürften von der Überprüfung einer KI überfordert sein, sie brauchen Unterstützung durch unabhängige Experten. Die Zertifizierung von KI-Lösungen würde hier helfen. „Es gibt eine Reihe von Richtlinien und ethischen Standards, aber noch keine Zertifizierungen, die eine viel detailliertere Betrachtung erfordern“, beschreibt Jörg Bienert, Vorsitzender des Bundesverbands Künstliche Intelligenz
(KI Bundesverband e.V.), die Situation. Allerdings bietet der KI Bundesverband etwas anderes: „Wir haben mit dem KI-Gütesiegel ein Rahmenwerk erstellt, zu dem sich die Mitglieder, die dies möchten, in einer Selbstverpflichtung bekennen“, so Jörg Bienert. Doch es gibt Einschränkungen: „Eine Überprüfung findet derzeit nicht statt, kann durch uns alleine auch nicht geleistet werden. Wir arbeiten aktiv mit anderen Gremien, zum Beispiel DIN, zusammen an Aktivitäten, die eine Zertifizierung als Ziel haben.“
Sind KI-Zertifizierungen verfügbar, dann hat dies klare Vorteile. „Wenn es KI-Zertifikate gibt, gibt es ein zugrundeliegendes Prüfschema“, erläutert Dirk Kretzschmar, Geschäftsführer von TÜViT. „Diese geben Informationen darüber, was eigentlich genau und wie geprüft wurde. Wir sind der Überzeugung, dass KI-Prüfungen in einem dafür zertifizierten Labor erforderlich sind. Allein der Dokumentation der KI-Entwickler zu vertrauen oder gar Herstellereigenerklärungen zuzulassen, halten wir für keine vertrauenswürdige Zertifizierung.  Für diese Laborprüfungen ist großes Experten­wissen etwa zu Machine Learning, neuronalen Netzen, IT-Security, Adversial Attacks und entsprechende Ausstattung erforderlich.“
Verwandte Themen