Big Data visualisieren mit AR und VR
Der Markt reift noch
von Olga Annenko - 29.08.2019

Immersive Data App: IBM visualisiert mit Hilfe von AR Informationen über Baseball-Pitcher – auf einem iPhone.
(Quelle: IBM)
Eine weitere Herausforderung ist der Umgang mit Big Data selbst. „Es ist schon schwer genug, sozusagen Small Data zu visualisieren, geschweige denn Big Data“, betont Steven Drucker von Microsoft Research. Je mehr Daten und je mehr Zusammenhänge es zwischen diesen Daten gibt, desto besser müssen sie aufbereitet werden, denn insbesondere Big Data kann nicht einfach so in eine Visualisierung, ob in AR oder auf eine andere Weise, eingespeist werden. „In der Regel müssen Sie die Daten aggregieren, bereinigen und einige Analysen durchführen, um die Datensätze zunächst auf eine überschaubare Größe und Komplexität zu reduzieren“, erläutert Reena Ganga von IBM.
Wie bei Big Data Analytics im Allgemeinen, so gilt also auch bei Visualisierungs-Projekten die Regel: Nicht alle Daten sind brauchbar oder nützlich, um die gewünschten Erkenntnisse zu erzielen. Außerdem gibt es noch viele ungeklärte Fragen im Bereich AR/VR und bezüglich des Einflusses dieser Technologien auf unsere Wahrnehmung, wie Sophia Batchelor durch ihre Experimente und die ihrer Kollegen festgestellt hat. Es ist derzeit immer noch unklar, warum Menschen Informationen, die ihnen in Virtual und Augmented Reality präsentiert werden, besser verstehen und lernen können, als zum Beispiel Informationen auf dem Papier oder einem Bildschirm. „Wir können nur beweisen, dass wir es in den meisten Situationen tun“, unterstreicht die Neurowissenschaftlerin. Trotzdem sind die Experten zuversichtlich, dass dieser Ansatz sehr viel Potenzial birgt. Eine stetig wachsende Zahl an Lösungen speziell für den Einsatz im Unternehmensumfeld ist ein Zeichen dafür.
Vielversprechend sind in dieser Hinsicht besonders die aktuellen Entwicklungen im Bereich AR- und VR-Hardware, die immer reifer und funktionsreicher wird, und das nicht nur im Konsumentenbereich. Im Mai dieses Jahres hat Google beispielsweise eine neue Version seiner Brille für den Enterprise-Sektor auf den Markt gebracht. Die Glass Enterprise Edition 2 zeichnet sich durch eine deutlich leistungsstärkere CPU und eine neue KI-Fähigkeit aus.
„Zusätzlich entstehen momentan auch neue Möglichkeiten für Interaktionen mit den Anwendungen“, so die Beobachtung des SAP-Experten Georg Kreimer, denn neben rein visuellen Darstellungsformen gibt es zusätzlich auditive und haptische. Auf der „SXSW“-Konferenz im März dieses Jahres hat Bose zum Beispiel eine AR-Brille mit Mini-Lautsprecher vorgestellt. Zwar handelt es sich noch um einen Prototyp, aber er zeigt bereits auf, wie sich auditive und visuelle Wahrnehmungen in Augmented und Virtual Reality vereinen lassen.
Andere Unternehmen arbeiten an speziellen Handschuhen für Augmented und Virtual Reality, die die aktuellen und teilweise sperrigen Motion-Controller ersetzen und eine natürlichere Interaktion mit Objekten - und Daten - in einer immersiven Umgebung gewährleisten sollen. Neben Produkten wie denen von HaptX und Plexus ist hier der DextrES Glove von EPFL und ETH Zürich zu erwähnen, der nur 2 Millimeter dünn ist und sehr wenig wiegt. Der Handschuh erlaubt es seinen Nutzern, virtuelle Objekte zu „berühren“ und zu manipulieren und gibt seinem Träger ein äußerst realistisches haptisches Feedback. Zudem bietet er dank künftig möglichem Batteriebetrieb eine noch nicht dagewesene Bewegungsfreiheit.