com!-Academy-Banner

Der Weg der KI führt über neue Prozessoren

Im Gespräch mit Marcus Gloger und Tanjeff Schadt von PwC

von - 14.01.2020
Tanjef Schadt
Tanjeff Schadt: Director bei PwC Strategy &
(Quelle: PwC Strategy & )
Marcus Gloger und Tanjeff Schadt, Partner beziehungsweise Director von PwC Stra­tegy &, erläutern die Bedeutung der Chips für Fortschritte bei der Künstlichen Intelligenz. Beide sind Mitautoren der PwC-Studie „Opportunities for the global semiconductor market“.
com! professional: Laut Ihrer Studie wird das Segment der KI-Prozessoren immer bedeutsamer. Wozu braucht es KI-Chips?
Tanjeff Schadt: Die KI-Workloads sind sehr heterogen. Um sie mit optimaler Performance, Power und möglichst geringen Kosten bedienen zu können, sind spezifische Architekturen notwendig. Neben klassischen Architekturen auf CPU-Basis entstehen neuartige Designs wie sie die Neuromorphic Chips von Intel oder Graphcore sowie die TPUs von Google mitbringen.
Diese Prozessoren können spezielle KI-Tasks effizienter abbilden als andere Architekturen und kommen gerade auf den Markt.
com! professional: Solche anwendungsspezifischen Chips waren bislang aber doch eher rar gesät?
Marcus Gloger: Ja, aber der Trend bei Herstellern wie Intel oder AMD geht zu anwendungsspezifischen Prozessoren. Dieses Rechnerarchitektur-Design ist, wenn man so möchte, eine Fortsetzung von Moore’s Law. Sie können damit den Stromverbrauch um einen Faktor 10 reduzieren und zugleich die Performance deutlich steigern.
com! professional: Also profitieren nicht nur KI-Anwendungen, sondern auch die Infrastruktur?
Schadt: Genau, das nützt auch dem Rechenzentrum und den Servern, in denen der Stromverbrauch zunehmend wichtig wird. In der Server-Welt lassen sich die traditionell monolithischen CPUs dann um
Marcus Gloger
Marcus Gloger: Partner bei PwC Strategy &
(Quelle: PwC Strategy & )
hochperformantes Memory ergänzen, so entsteht ein Chiplet für Künstliche Intelligenz. Wobei wir überzeugt sind, dass diese chipbasierten KI-Funktionalitäten mittelfristig Standard und in den klassischen CPU-Kern integriert werden.
com! professional: Die Funk­tionalitäten der spezialisierten KI-Chips werden in normale Prozessoren integriert?
Gloger: Wir gehen davon aus, dass in nicht allzu ferner Zukunft 60 bis 80 Prozent der Rechenleistung tatsächlich KI-Rechenleistung sein wird.
Standard-KI-Tasks, also breit angewendete KI-Aufgaben, werden daher zunehmend in den regulären CPU-Kern hineinwandern. Ich rechne hier mit einer Zeitspanne von fünf bis zehn Jahren. Das ist der Zyklus, den wir in der Vergangenheit beobachten konnten, etwa bei der Integration von numerischen Co-Prozessoren in CPUs. Man sieht ja auch bereits erste Tendenzen, wie das funktionieren kann.
com! professional: Welche Tendenzen meinen Sie?
Gloger: Apple hat in seinen A13-Chip im iPhone eine Neural Engine, beispielsweise für die Gesichtserkennung, eingefügt. Die Engine ist inzwischen in den Chip integriert. Die Frage ist, ob diese dann zukünftig sogar in das gleiche Silizium eingebettet wird wie der eigentliche Kern, sogenannte Embedded KI.
com! professional: Gilt das für alle KI-Funktionalitäten?
Schadt: Nein. Es wird weiterhin sehr spezielle KI-Anwendungen geben, für die die dedizierten KI-Chips sinnvoll sind. Neuro­morphe Prozessoren für Deep Learning wären solche Spezial-Chips. Diese lassen sich schwer in eine normale CPU integrieren, weil ihre Architektur der Funktionsweise des menschlichen Gehirns nachempfunden ist und sich damit fundamental vom traditionellen sequenziellen Processing eines Von-Neumann-Chips unterscheidet.
Verwandte Themen