Deep Learning - Königsdisziplin der Künstlichen Intelligenz

Daten, Modelle und GPUs

von - 21.12.2018
Die Architekturen deuten es an: Deep Learning ist im Vergleich zu anderen Machine-Learning-Verfahren hochkomplex. Dennoch lohnt der Aufwand - besonders im wirtschaftlichen Umfeld. „Der Einsatz dieser hochentwickelten KI-Methoden stellt Unternehmen vor erhebliche organisatorische Herausforderungen“, weiß Peter Breuer, Senior Partner bei McKinsey in Köln und deutscher Leiter von McKinsey Advanced Analytics. Aber: „Der Mehrwert, den diese Methoden generieren, übertrifft den Aufwand um ein Vielfaches.“
Wie aber geht man Deep-Learning-Projekte am besten an? Ein zentraler Erfolgsfaktor ist eine möglichst große Anzahl qualitativ hochwertiger Daten für das Training der neuronalen Netze. Im Fall der Bilderkennung sind für die automatisierte Merkmalsextraktion und das Training Tausende von Bildern notwendig: Für die Entwicklung eines fahrerlosen Autos sind Millionen Bilder und Tausende Stunden Video durchaus im Bereich des Üblichen.
Wegen der riesigen Datenmengen kann das Training eines Deep-Learning-Modells viel Zeit in Anspruch nehmen - von einigen Tagen bis zu mehreren Wochen. Dieser Zeitaufwand lässt sich durch geschicktes Vorgehen und vor allem durch parallelisierte und leistungsstarke, schnelle Hardware reduzieren. Als Hardware haben sich im Deep-Learning-Umfeld Grafikprozessoren (GPUs) etabliert.
Normalerweise wird ein Netzwerk generiert, indem man eine große Menge von Daten zu einem Problem sammelt und dann eine Architektur und ein Modell entwirft, das die gewünschten Merkmale lernen soll. Dieser Ansatz wird vor allem wegen des Zeit- und Modellierungsaufwands aber kaum angewendet. In der Praxis nutzt man heute vielfach Transfer-Learning. Beim Transfer-Learning wird ein bereits bestehendes, vortrainiertes Modell eingesetzt und verfeinert.
Damian Borth
Dr. Damian Borth
Professor für Artificial Intelligence und Machine Learning an der Universität St. Gallen
www.unisg.ch/de
Foto: DFKI
„Deep Learning wird die Unternehmenswelt so verändern wie einst das Internet.“
Generell bieten sich für die Entwicklung von Deep-Learning-Modellen und -Architekturen Frameworks und Tools wie TensorFlow oder Torch an. Da sie in der Regel Open Source sind, können interessierte Entwickler problemlos darauf zugreifen. Auch Cloud-Services werden inzwischen für Deep Learning bereitgestellt. Kommerzielle Entwicklungssysteme sind ebenfalls verfügbar. Ein Beispiel dafür ist MissingLink.ai, eine Deep-Learning-Plattform, die Dateningenieuren dabei hilft, den gesamten Deep-Learning-Zyklus von Daten, Code, Experimenten und Ressourcen zu optimieren und zu automatisieren. Die Plattform eliminiert die Routine­arbeit und verkürzt die Zeit, die für die Schulung und Bereitstellung effektiver Modelle benötigt wird.
Deep Learning macht also enorme Fortschritte dabei, sein Potenzial auszuspielen. Ein Potenzial, das gar nicht groß genug eingeschätzt werden kann, wenn es nach Damian Borth geht, Professor für Artificial Intelligence und Machine Learning an der Universität St. Gallen: „Deep Learning wird die Unternehmenswelt so verändern wie einst das Internet.“
Deep Learning vs. Machine Learning
KI - Teildisziplin der Informatik - befasst sich allgemein mit der Automatisierung menschlichen intelligenten Verhaltens.
Machine Learning (ML): Machine Learning ist eines der erfolgreichsten und wichtigsten Teilgebiete der Künstlichen Intelligenz - Teilgebiet in dem Sinn, wie Thermodynamik und Quantenphysik Teilgebiete der Physik sind. Daneben gehören zur KI Teilgebiete wie wissensbasierte (Experten-)Systeme, Mustererkennung, Robotik, die Verarbeitung natürlicher Sprache und maschinelles Übersetzen.
Deep Learning (DL): Wird oft mit KI gleichgesetzt, was nicht korrekt ist. DL ist vielmehr eine Methode des maschinellen Lernens. Der entscheidende Unterschied zwischen DL und anderen Methoden des maschinellen Lernens ist, dass beim Machine Learning der Mensch in die Analyse der Daten und den Entscheidungsprozess eingreift. Beim Deep Learning muss der Mensch nicht mehr selbst eingreifen. Er sorgt nur dafür, dass die Informationen für das Lernen bereitstehen und die Prozesse dokumentiert sind. Die  Analyse und das Ableiten von Prognosen oder Entscheidungen überlässt er dem Deep-Learning-Algorithmus.
Verwandte Themen