Künstliche Intelligenz muss Vertrauen schaffen
Permanente Aufgabe
von Oliver Schonschek - 20.01.2020
„Bald werden sich Systeme selbst neu programmieren, um sich automatisch an veränderte Gegebenheiten anzupassen“, erklärt Giuseppe De Giacomo, KI-Experte an der Universität La Sapienza in Rom. „Die Ausstattung von Systemen mit Selbstprogrammierung birgt jedoch erhebliche Risiken, deshalb müssen wir in der Lage sein, Leistung und Sicherheit in Einklang zu bringen. Aus diesem Grund ist es wichtig, solche Systeme durch menschliche Vorgaben und Aufsicht zu schützen, das heißt Systeme zu schaffen, deren selbst programmiertes Verhalten für den Menschen nachvollziehbar und analysierbar ist.“
Künstliche Intelligenz zu zertifizieren, wird sich deshalb von den klassischen Zertifizierungen unterscheiden, wie sie viele Unternehmen zum Beispiel aus dem Qualitätsmanagement kennen. KI verändert „selbstlernend“ ursprünglich von Menschen gestaltete Algorithmen und gewinnt auf dieser Grundlage automatisierte Schlussfolgerungen, die als Basis von relevanten praktischen Entscheidungen genommen werden können.
KI unterliegt Veränderungen, ohne die das Lernen der Maschinen nicht möglich wäre - mit Folgen für die Zertifizierung. „Zertifizierungen kennen wir bisher als periodisch wiederkehrende zu einem bestimmten Zeitpunkt. Rezertifizierungen sind auch bei KI Lösungen erforderlich, insbesondere, wenn Änderungen am Algorithmus vorgenommen werden“, erklärt TÜViT-Geschäftsführer Dirk Kretzschmar. „Insgesamt sehen wir durchaus die Notwendigkeit einer permanenten Überprüfung, insbesondere bei Algorithmen, die ausschließlich in der Cloud betrieben werden.“
Bislang gibt es also noch keine Zertifizierung von Künstlicher Intelligenz, in Zukunft aber wird sie fortwährend stattfinden.