Künstliche Intelligenz muss Vertrauen schaffen

Im Gespräch mit Dr. Maximilian Poretschkin vom Fraunhofer-Institut IAIS

von - 20.01.2020
Dr. Maximilian Poretschkin
Dr. Maximilian Poretschkin: Projektleiter am Fraunhofer-Institut IAIS
(Quelle: Fraunhofer IAIS )
Dr. Maximilian Poretschkin verantwortet am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) die Aktivitäten im Bereich Absicherung und Standardisierung von Künst­licher Intelligenz. In dieser Funktion leitet er unter anderem ein interdisziplinäres Forschungsprojekt zur Entwicklung einer Zertifizierung von Künstlicher Intelligenz, das von der KI-Kompetenzplattform KI.NRW gefördert wird und an dem auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) beteiligt ist.
com! professional: Hindert nach Ihrer Er­fahrung gegenwärtig fehlendes Vertrauen in Künstliche Intelligenz die weitere Nutzung in Unternehmen?
Maximilian Poretschkin: Das Vertrauen der Wirtschaft in Künst­liche Intelligenz ist durchaus vorhanden. Die Unternehmen erkennen, dass ein verantwortungsvoller Einsatz der Technologie tatsächlich mehr Chancen als Risiken bietet: KI-Anwendungen offerieren ein breites Spektrum an Möglichkeiten, sei es bei der Prozessoptimierung oder um neue Geschäftsmodelle zu generieren.
Und an vielen Stellen im Alltag oder in der Arbeitswelt funktioniert KI bereits heute besonders zuverlässig, beispielsweise in der Medizin: KI-Systeme können Diagnosen anhand von Röntgenbildern präziser stellen als die Radiologen. Allerdings ist es letztlich immer der Mensch, der die Diagnose verifiziert und eine Behandlung einleitet. So können wir KI wirklich als Chance begreifen, und dann ist es auch nicht das fehlende technologische Vertrauen seitens der Unternehmen, das sie an der Nutzung von KI hindert, sondern vielmehr Fragestellungen der tatsächlichen Einsatzmöglichkeiten von KI-Anwendungen.
com! professional: Was müsste geschehen, damit das Vertrauen in KI weiter steigt?
Poretschkin: Um das Vertrauen in KI noch weiter zu stärken, müssen KI-Anwendungen, die an besonders sensiblen Stellen zum Einsatz kommen - etwa beim autonomen Fahren oder weiteren Anwendungen in der Medizin -, überprüfbar kon­struiert werden und ethische sowie rechtliche Rahmenbedingungen erfüllen. Idealerweise werden ethische Aspekte bereits beim Design bis hin zum Operativeinsatz mitgedacht. Zudem müssen die Anwendungen technisch abgesichert sein, sprich zuverlässig funktionieren.
Oft beruhen KI-Anwendungen auf großen Datenmengen vor dem Hintergrund hochkomplexer Modelle. In der Praxis kann es sich aus Sicht des Anwenders durchaus schwierig gestalten, zugesicherte Eigenschaften der Anwendung zu überprüfen. Solche Anwendungen werden auch „Black Boxes“ genannt. Es liegt hier an den Wissen­schaft­lerinnen und Wissenschaftlern der Informatik, neue, nachvollziehbare und erklärbare Verfahren zu entwickeln.
Zusätzlich ist es wichtig, einen Dialog mit der Gesellschaft zu führen, um Vertrauen in diese Zukunftstechnologie zu schaffen. Hierzu haben wir ein Whitepaper mit Handlungsfeldern für einen vertrauenswürdigen Einsatz von KI veröffentlicht, das die Basis unseres Prüfkatalogs für eine KI-Zertifizierung bildet. Darüber hinaus engagieren wir uns regelmäßig in Diskussionsrunden und mit Vorträgen auf öffentlichen Veranstaltungen, um für das Thema zu sensibilisieren.
com! professional: Welche Nachweise oder Zertifizierungen für KI gibt es bisher?
Poretschkin: Bislang gibt sehr viele allgemein gehaltene Empfehlungen zur Entwicklung und zum Umgang mit vertrauenswürdiger KI, etwa von der High Level Expert Group on Artificial Intel­ligence der Europäischen Kommission. Es gibt allerdings noch keine Zertifizierung von vertrauenswürdigen KI-Anwendungen, die die Konformität mit diesen Empfehlungen nach außen hin erkennbar macht.
Fraunhofer IAIS ist hier im Rahmen der Kompetenzplattform KI.NRW ein Vorreiter für die Entwicklung einer solchen Zertifizierung. Diese Entwicklung ist durchaus herausfordernd und erfordert sowohl eine tiefe technische KI-Expertise als auch ein Verständnis ihrer praktischen Anwendungen, ist also eine typische Fraunhofer-Aufgabe. Zusätzlich verlangt die Breite der Thematik, nicht zuletzt auch die gesellschaftliche Verantwortung, ebenso eine enge und interdisziplinäre Zusammenarbeit mit weiteren Partnern. Hierzu kooperieren wir mit namhaften Expertinnen und Experten aus dem Bereich Rechtswissenschaften und Philosophie sowie dem Bundesamt für Sicherheit in der Informationstechnik. Mit unserem Ansatz für die Zertifizierung beraten wir zudem regelmäßig sowohl große Unternehmen als auch politische Organe.
com! professional: Woran arbeiten Sie konkret im Bereich Zertifizierung für KI?
Poretschkin: Primäres Ziel ist, konkrete Qualitäts- und Sicherheitsstandards in Form eines Prüfkatalogs auszuarbeiten, auf deren Grundlage technische Prüfer künftig KI-Anwendungen sachkundig beurteilen können. Aktuell sind wir in Verhandlungen mit entsprechenden Prüforganisationen, um ein marktfähiges Verfahren zu entwickeln.
Aufbauend auf unserem interdisziplinären Austausch formuliert der Katalog KI-spezifische Anforderungen für den vertrauenswürdigen Einsatz von Künstlicher Intelligenz. Faires Verhalten der KI-Anwendung gegenüber allen Beteiligten, die Anpassung an die Bedürfnisse der Nutzerinnen und Nutzer, eine verständliche, verlässliche und sichere Funktionsweise sowie der Schutz sensibler Daten sind zentrale Kriterien, die ein Prüfkatalog und eine Zertifizierung abdecken müssen.
Die erste Version unseres Prüfkatalogs wird Anfang dieses Jahres erscheinen. Prüfverfahren für selbstfahrende Autos, sicherheitskritische Anwendungen oder bestimmte Arten des Weiterlernens der Anwendung - etwa Anwendungen, die die Architektur der neuronalen Netze im laufenden Betrieb ändern -, erfordern weitere Spezialkataloge und sind teilweise Gegenstand aktueller Forschung, auch hier bei Fraunhofer.
com! professional: Worauf sollten Unternehmen bei KI-Zerti­fikaten achten?
Poretschkin: Zurzeit gibt es noch keinen solchen Markt, bei der Aktualität des Themas wird sich dieser aber rasch entwickeln. Unternehmen sollten in ihrem eigenen Interesse darauf achten, sich keine Persilscheine ausstellen zu lassen. Ein gutes Gütesiegel sollte von entsprechenden KI-Experten unter Berücksichtigung von ethischen und gesellschaftlichen Fragestellungen entwickelt worden und nicht zuletzt auch von den zuständigen Behörden anerkannt sein. 
com! professional: KI bedeutet ja auch stetige Veränderung durch Lernen. In welcher Weise kann eine Zertifizierung dies berücksichtigen?
Poretschkin: KI-Anwendungen folgen immer bestimmten Prinzipien und Mustern, die von ihren Entwicklerinnen und Entwicklern entsprechend programmiert wurden. KI kann sich dann im Betrieb dynamisch weiterentwickeln und bedient sich aus aktuellen oder historischen Daten. Ein bekanntes Negativbeispiel ist der Chatbot eines großen Technologieunternehmens. Die Software eignete sich rassistisches Verhalten an, was bei der Entwicklung natürlich nicht beabsichtigt worden war.
Derartige Ergebnisse gilt es klarerweise zu verhindern. Wirksame Gegenmittel hierzu sind, wie eingangs erwähnt, ein Human-in-the-Loop, das heißt, eine Kontrolle der Entscheidungen der KI durch den Menschen. Eine andere Möglichkeit sind strukturierte Updates, bei denen der Lernfortschritt der KI getestet wird, bevor er im laufenden Betrieb angewandt wird.
Verwandte Themen