Neuronale Netze

Künstliche Intelligenz wird vielseitiger

von - 21.01.2021
KI wird vielseitiger
Foto: www.tu-darmstadt.de
Neuronale Netze sind dem Gehirn nachempfunden. Sie lernen wie ein Mensch, indem beim Training sogenannte Synapsen – in diesem Falle Parameter – gestärkt werden, und zwar jedes Mal, wenn ein Trainingsversuch erfolgreich ist.
Je stärker die entsprechenden Synapsen, desto zuverlässiger funktioniert das Netz. Aber bei einer neuen Aufgabe ist das Gelernte wieder vergessen. "Insbesondere Deep Learning-Netze sind gut darin, spezialisierte Aufgaben zu erlernen, aber die der Lösung zugrundeliegende Struktur zu extrahieren und auf andere Aufgaben zu übertragen - das war bisher eine offene Forschungsfrage", erläutert Doktorand Daniel Tanneberg von der Intelligent Autonomous Systems (IAS) Group der TU Darmstadt. Seine Kollegen und er haben nun eine neuronale Computerarchitektur entwickelt, die genau dies leistet. Sie beschreiben ihr System - den Neural Harvard Computer (NHC) - in einer Publikation, die in der Fachzeitschrift Nature Machine Intelligence erschienen ist.
Der NHC ist eine speichergestützte, netzwerkbasierte Architektur. Die Forscher ergänzten ein klassisches neuronales Netz durch mehrere Module, etwa einen externen Speicher, der es ermöglicht, eine weitere Abstraktionsebene einzuführen. Dabei werden die Informationsströme aufgeteilt und die algorithmischen Operationen von den Datenmanipulationen entkoppelt. Das Netzwerk trennt das Gelernte, das die konkreten Daten betrifft, von den gelernten allgemeinen Strategien. Für einen Roboter wäre die Unterscheidung der Spielzeuge die eine Ebene, das Sortieren an sich die andere - in neuronalen Netzen waren bisher beide Ebenen in der synaptischen Gewichtung kodiert und somit nicht getrennt.
Verwandte Themen