HoloLens & Co: Die Mixed Reality-Revolution


Dieser Beitrag ist Teil einer Artikelserie, die sich im Vorfeld der Konferenz MSFT Explained (am 27. September in Berlin) mit Fragen der Digitalisierung unserer Gesellschaft auseinandersetzt.


Virtual und Augmented Reality sind zu Hause und im Beruf mehr als nur Zukunftsmusik: Für die wissenschaftliche Arbeit, das Training der Mitarbeiter, für Produktentwicklung und Vertrieb und natürlich Unterhaltung und Freizeit. Wie vielfältig die neuen Technologien eingesetzt werden können, ahnen bislang nur wenige. Was verändert sich und wer macht sich die Technologie heute schon zunutze?

Die neue Realität

Was wir sehen, ist die Realität. Oder nicht? Um uns herum fliegen Nanodrohnen, die in Echtzeit die ganze Welt aufnehmen. Monströse Rechenzentren setzen Avatare in diese Welt, die sich bewegen wie echte Menschen. Und ein Chip im Kopf der realen Menschen setzt alles zusammen, die reale Welt und die virtuelle. Dass ein Mensch gar nicht real da ist, merken wir nur daran, dass wir ihn nicht berühren können.

Diese Welt hat Jens Lubbadeh erschaffen. In seinem großartigen Roman „Unsterblich“ soll es schon 2044 so weit sein. Er nennt das „Blended Reality.“ Utopie? Oder denkbare Zukunftsvision? Vielleicht von beidem ein bisschen.

So weit sind wir noch nicht, aber wir sind in der Sache mit den Realitäten doch viel weiter, als man denken könnte. Wer sich die HoloLens von Microsoft aufsetzt, sieht im realen Raum vor sich einen Gewichtheber, dessen Muskeln ziemlich real aussehen und nach dem Lehrbuch die lange Hantel hochstemmt. In dieser Demo scannt die HoloLens den Raum, setzt den Gewichtheber hinein und der Nutzer sieht beides gleichzeitig, als würde sich dort wirklich gerade einer abmühen. Irritieren könnte, dass er gerade einmal fünfzig Zentimeter groß ist. Er kann aber mit nur ein, zwei Sprachbefehlen auch 1,80 Meter groß werden. Und steht dann in Lebensgröße im Raum.

Diese Verbindung aus Realität und Projektion: Microsoft nennt sie „Mixed Reality“. Möglich machen sie eine ganze Menge Sensoren in der Brille und sie ist damit fünf Schritte weiter als die bisherigen Virtual-Reality-Brillen, in die wahlweise ein handelsübliches Smartphone geschoben wird oder die selbst Prozessoren in sich haben, nicht aber Sensoren. Und schon gar nicht die reale Welt mit hinein lassen. Die HoloLens ist eine Brille, die der Google Glass sehr ähnlich ist.

Erinnert sich noch jemand? Das Geschrei war groß, markttauglich ist sie nie geworden und jetzt ist es schon lange Zeit still um sie. Aber die Google Glass hat den Weg bereitet für eine Realität, die durch zusätzliche Informationen erweitert werden konnte. Heute ist fast alles „virtuelle Realität“, was irgendwie mit solchen Brillen zu tun hat. Wenn man es aber genau nimmt, kann man drei Felder unterscheiden.

Die „Augmented Reality“ (AR), bei der auf die reale Welt eine zweite Lage gelegt wird, die mir zusätzliche Informationen gibt. Apps zum Beispiel bauen die Berliner Mauer wieder auf und zeigen am realen Ort auf dem Smartphone-Screen, wie es dort vor Jahrzehnten war. Die echte „Virtual Reality“ (VR) bezeichnete bislang vor allem Computeranimationen. 3D-Welten wie in Egoshootern, die sehr computeranimiert aussehen, in der man sich als Nutzer aber frei bewegen kann. Dann ist vor kurzer Zeit das 360°-Video dazu gekommen, das die reale Welt abfilmt und dem Nutzer zumindest die Möglichkeit gibt, sich zu allen Seiten umzuschauen – auch wenn sie sich nicht bewegen konnten.

Heute werden beide Begriffe in einen Topf geworfen. Fachkundige behaupten, dass der Nutzer mehr Entscheidungsfreiheit habe, als wenn er nur einen flachen Screen vorgesetzt bekommt. Die sogenannte „Mixed Reality“ ist die neueste dieser Entwicklungen, und wohl mit die komplizierteste. Aber gerade diese Verbindung aus realer und virtueller Welt schafft Möglichkeiten, die noch richtig spannend werden können. Die Realität wird erweitert, also angereichert. „Enhanced Reality“, sozusagen.

In der Medizin gibt es schon erste Prototypen, mit denen man den Körper in 3D vor sich sehen kann. Der Medizinstudent, der nicht mehr vom Screen lernt, sondern um den Körper herumlaufen kann, sieht, was wo liegt; der Chirurg, der über dem realen Körper auf dem Operationstisch einblenden kann, wo welche Adern und Gefäße entlang laufen: Noch stecken diese Technologien am Anfang. Gerade der Endverbraucher ist enttäuscht von dem, was er bisher gesehen hat. Gamer, die sich Monatelang auf die Oculus Rift gefreut haben, legten sie nach ein paar Tagen mit der virtuellen Realität wieder in den Schrank. Warum? Die Grafik hat den Stand von vor zehn Jahren, Gamer sind da anderes gewohnt. Die Prozessoren können mit den vielen Variablen der virtuellen Realität aber noch nicht so gut umgehen, der menschliche Körper irgendwie auch nicht. Es wird einem doch schwindelig, der Nacken schmerzt nach ein paar Stunden auch.

Aber es wird kontinuierlich weiter geforscht. In ein paar Projekten ist man mit der Brille nicht mehr an Sofa und Joystick gefesselt. Der Nutzer kann durch den virtuellen Raum laufen. Setzt er seinen realen Fuß nach vorn, geht auch sein Avatar einen Schritt weiter. Durch diese Kopplung von Augen und Körper kann der Kopf noch schlechter auseinander halten, was real ist und was nicht. Möglich ist das dank einer Tracking-Technologie, die den Nutzer im Raum verortet.

In den USA arbeitet The Void daran, auch in Deutschland gibt es ein solches Projekt. Das Fraunhofer IIS in Nürnberg hat die Technologie entwickelt, das Startup Holodeck arbeitet nun daran, es als Ausgründung auf den Markt zu bringen. Bis zu 100 Leute können sich mit VR-Brillen auf dem Kopf autark im Holodeck bewegen und sehen auch einander als Avatare. Einsatzgebiete? Wie wäre es denn mit Disneyland? Statt in eine Halle eine aufwändige Themenwelt zu bauen und sie damit für jede andere Nutzung zu blocken, können 3D-Artists am Computer gleich mehrere Experiences bauen. Drei Mal am Tag, jeweils eine andere Show, man muss ja nur die andere Simulation starten. Die Besucher würden sich drei Mal anstellen, um nicht nur durch die Welt von Ratatouille zu laufen, sondern auch Cinderella und das Dschungelbuch zu erleben.

Im Media Lab Bayern haben wir Holodeck als Fellows aufgenommen, das Team arbeitete hier vor allem am Thema Storytelling. Denn gerade in den klassischen Bereichen, in denen Geschichten erzählt werden – Film, Games, Journalismus, hat die neue Technologie genauso viel Reiz wie Probleme. Wie erzähle ich eine Geschichte, wenn der Nutzer selbst entscheiden kann, was er sich als nächstes ansehen, wo er hinlaufen, was er tun möchte? Mehr Autonomität für den Nutzer bedeutet weniger Kontrolle für den Storyteller. Es kann nur noch Angebote geben und eine kluge Anleitung durch das Erlebnis. Mehr Autonomität, und da sind sich alle einig, die schon länger an VR arbeiten, heißt aber auch mehr aktives Interesse des Nutzers. Wie großartig gerade für Felder wie den Journalismus, wo man doch so gern hätte, dass der Nutzer die Themen wirklich erleben und nachvollziehen kann.

Gerade die „Augmented“ – oder auch „Mixed Reality“ ist für Informationsvermittlung und Journalismus wahnsinnig spannend. Eine Ebene mit Informationen liegt über der realen Welt, ich sehe beides gleichzeitig und habe die Informationen direkt verortet.

VR lohnt sich momentan vor allem in der Industrie, denn für den Alltag ist die Technologie noch zu teuer. Computeranimationen, zum Beispiel im Film, sind, trotz immer neuer Entwicklungen, noch immer Mammutprojekte. Wer den Film „Jungle Book“ gesehen hat, weiß, wie gut die mittlerweile sind. Da zittern die Wolfshaare im Wind, wie es die Realität nicht besser könnte. Aber diese Arbeit hat Millionen gekostet, 175 Millionen Dollar, um genau zu sein. Und ist noch nicht einmal interaktiv. Die teure Technik der virtuellen Realität ist daher momentan vor allem dort nützlich, wo teure Maschinen, Geräte oder gleich ganze Gebäude entstehen. Als Computergrafik können Architekt, Autobauer und Ingenieur sich die Produkte schon einmal in realer Größe und Form anschauen, bevor auch nur ein Quadratzentimeter Blech in Form gebogen werden muss.

Der Endnutzer kommt ins Spiel, wenn er teure Dinge kaufen soll und sich mit der Entscheidung schwer tut. Wie wäre es, ihn mit ein wenig Immersion schon einmal auf den Geschmack zu bringen? Beim Hausbau beispielsweise. Bislang gibt es Musterhäuser. Bald gibt es vielleicht nur noch eine Halle und eine Brille. „Die Wand verschieben? Klar, so würde das dann aussehen. Gefällt’s Ihnen? Gehen Sie mal durch!“

Ins Wohnzimmer des Endverbrauchers wird die virtuelle Kauf-Realität dann kommen, wenn man sich mit der IKEA-VR-App das neue Sofa schon einmal in den Raum stellen kann – zumindest so lange man eine Brille auf hat.

Das wird vermutlich gar nicht mehr so lange dauern. Und wer weiß, vielleicht brauchen wir die Brillen irgendwann gar nicht mehr. Sondern haben eine andere Technologie, mit der wir ganz selbstverständlich die Realität um Bilder, Grafiken, Informationen erweitern.
Vielleicht nur nicht gerade mit einem Chip im Kopf, wie bei „Unsterblich“. Wobei…

160901_mic_explained_1200x675


Image „Smartphone“ by geralt (CC0 Public Domain)


leitet das Media Lab Bayern, einen Inkubator für Innovation in den digitalen Medien und Journalismus in München. Mit Fellowships fördert das Media Lab Startups, die neue Ideen für die Medienbranche voranbringen wollen – zum Beispiel in Virtual Reality und 360°-Video. Die Bewerbungsphase läuft aktuell noch bis zum 15. Oktober. Mitglied des Netzpiloten Blogger Networks.


Artikel per E-Mail verschicken
Schlagwörter: , , , , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert