Der Blick über Apples realitätsverzerrendes Headset hinaus
HeimHeim > Nachricht > Der Blick über Apples realitätsverzerrendes Headset hinaus

Der Blick über Apples realitätsverzerrendes Headset hinaus

May 13, 2023

Im Nachgang der meisten Apple-Hardware-Keynotes wird ein umfassendes Klischee verwendet, das ehrfurchtsvoll als „Apple Reality Distortion Field“ bezeichnet wird. Im Fall des neuen Mixed-Reality-Headsets Vision Pro des Unternehmens, das dieses Jahr auf der WWDC angekündigt wurde, hat Apple im wahrsten Sinne des Wortes ein eigenes Realitätsverzerrungsfeld geschaffen und möchte, dass Entwickler etwas tun, was sie seit Jahrzehnten in der erweiterten und virtuellen Realität nicht tun konnten; und das gibt den meisten Leuten einen Grund, es über Demos hinaus zu verwenden.

Am Ende einer zweistündigen Eröffnungs-Keynote auf seiner World-Wide Developer Conference griff Apple-CEO Tim Cook auf den 24 Jahre alten Tech-Trick zurück, den das Unternehmen mit der „One-more-thing“-Zeile bei der Vorstellung seiner Produkte eingeführt hatte neues Mixed-Reality-Headset, das Vision Pro.

Eine Reihe von Apple-Führungskräften betraten die digitale Bühne, um die verschiedenen Vorzüge eines weiteren AR/VR-Headsets auf dem Markt zu loben, das Demos der üblichen Theatersimulation, schwebende Anwendungsfenster, Augen- und Handgestenerkennung, Spiele und natürlich beinhaltete Produktivität im Büro.

Man muss Apple zugutehalten, dass das Unternehmen offenbar sein Portemonnaie um die fortschrittlichste derzeit verfügbare Technologie erweitert und das Vision Pro mit sechs Atmosphärenkameras, drei LiDAR-Scanmodulen, zwei nach unten gerichteten Kameras und einem zweiten Chip zur Verarbeitung aller Kameraaktivitäten ausgestattet hat Micro-OLED-Displays mit einer 4K-Auflösung pro Auge oder 23 Millionen Pixel, eine Reihe von IR-Kameras und LED-Beleuchtungen zur Augenverfolgung, ein zusätzliches teures Außendisplay und eingebaute Lautsprecher.

Einer der Bereiche, in denen die Realitätsverzerrung des Vision Pro jedoch zu kurz kommt, sind die Demos und Anwendungsfälle, die Apple während der Keynote hervorgehoben hat, sowie widerrufene Erfahrungen aus erster Hand von Technikjournalisten, die kurze Zeit mit dem Gerät verbracht haben.

Während es sich bei der Hardware vielleicht um das eleganteste VR/AR-Headset aller Zeiten handelt, fühlte sich fast nichts, was Apple während seiner 30-minütigen Präsentation vorführte, neu an oder ergab mehr Sinn als das, was vor seiner Einführung war. Die Idee der immersiven Kinofilmwiedergabe ist ein Grundprinzip der meisten VR-Headsets, da der Bildschirm nur wenige Zentimeter von den Augen des Benutzers entfernt platziert werden kann und ein Großteil der Außenwelt isoliert ist.

Die Idee, dass wir unsere aktuelle, freie Sicht auf die Welt mit digitalen Bildüberlagerungen von Anwendungsfenstern verunreinigen können, ist eine weitere Standarddemo von jedem AR-Headset, einschließlich Magic Leap, HoloLens, HTC VIVE, Lenovo ThinkReality und Rokid Max. Computergenerierte Elemente, die den 3D-Raum sprengen, sind ebenfalls eine beliebte Demo, die mittlerweile so wichtig ist, dass Apple es aufgegeben hat, sie als Teil seiner AR-Kit-Updates für iOS und iPadOS zu präsentieren.

Vergleicht man sie miteinander, ist die Produktivitätsdemo fast unschlagbar mit dem, was Microsoft vor sieben Jahren mit HoloLens vorgeführt hat, und in geringerem Maße mit dem, was Meta mit seiner eigenen Metaverse-Variante zu erreichen hofft, so sehr, dass die Microsoft Office-Unterstützung von Apple hervorgehoben wurde.

Die Idee, Telefonkonferenzen zu führen, Produktivitäts-Apps im 3D-Raum zu testen und im Internet zu surfen, sind nicht nur alte Konzepte, sondern erweisen sich auch immer wieder als weniger effizient als die aktuelle Kombination aus Laptops, Bluetooth-Tastaturen und -Mäusen sowie Monitoren, die wir derzeit verwenden durch das glanzlose Erscheinen von Headsets im Büro.

Die Tatsache, dass die meisten AR-Headsets zu Einweg- und Spezialanwendungstools werden, ist ein weiterer Beweis dafür, dass Entwickler bei der Frage, wie sie Multitasking-Erlebnisse in AR- und VR-Erlebnisse integrieren können, ohne den Benutzer zu überlasten, an eine Grenze gestoßen sind.

Mein Punkt ist, dass es abgesehen von den Oohs und Ahhs einer neuen Technologie von Apple nur wenige kritisch durchdachte Interpretationen von Apples Vision für den Vision Pro gibt (Wortspiel beabsichtigt). Ähnlich wie bei der Apple Watch hat Apple die Welt mit zahlreichen Demos überschwemmt, die bereits von früheren Herstellern von AR- und VR-Headsets erstellt wurden.

Was Apple erfolgreich geschafft hat, ist, dem YouTube-Journalistenpublikum neuen Marketing-Jargon zu vermitteln und vorerst die Aufmerksamkeit der Medien zu fesseln, aber es lässt sich argumentieren, dass das Unternehmen etwas präsentiert hat, das jeden dazu bringt, „anders zu denken“, wie AR und VR angegangen werden sollten.

Das Vision Pro ist ein weiteres teures Stück Erfahrung bei der Isolierung von Hardware, das andere Headsets wie das HoloLens und frühere Versionen des Meta Quest waren, und basierend auf den grenzenlosen Möglichkeiten, die Apple in seinen eigenen ausgefeilten Fantasy-Demos hätte anstreben können, blieb es dabei was fast jedes andere Headset gezeigt hat.

Ein weiterer Riss, der in Apples Bereich der Realitätsverzerrung rund um den Vision Pro auftaucht, ist die Tatsache, dass er als Mixed Reality verkauft wird, die räumliches Computing erzeugt, obwohl es sich in Wirklichkeit nur um VR mit Video-Pass-Through handelt.

Wenn jemand einen Daumen über die Kameras einer HoloLens legt, verschwinden die AR-Elemente, aber die Benutzer können weiterhin die Außenwelt sehen. Wenn jedoch jemand die Kameras einer Vision Pro verdeckt, ist der Benutzer praktisch blind.

Die meisten AR/VR-Headsets versuchen, sich auf die Single-Reality-Anzeige zu spezialisieren, wie etwa das Meta Quest Pro, das hauptsächlich auf immersive VR abzielt, oder das HoloLens (trotz der Vermarktung von Mixed Reality durch Microsoft), das auf AR abzielt. Bei der Ankündigung von Vision Pro hat Apple vor allem VR-Erlebnisse mit digitalem Pass-Through gezeigt, und ich denke, dass das Unternehmen bei dem Versuch, es weiterzuentwickeln, in die Enge getrieben wird.

Ein Benutzer des Vision Pro sieht nicht wirklich die reale Außenwelt, auf die computergenerierte Bilder angewendet werden, sondern eine Videowiedergabe davon, allerdings mit einem fast unmerklichen Zeitunterschied. Bei der Facetime-Demo, die Apple während der Präsentation vorstellte, handelte es sich um eine weitere digitale Interpretation des Gesichts des Benutzers, das in einem Video dargestellt wurde.

Darüber hinaus sehen Personen, die aus nächster Nähe mit einer Person interagieren, die das Vision Pro trägt, wiederum eine Videodarstellung ihrer Augen. Tatsächlich handelt es sich bei Apples Vision Pro um ein vollständig immersives VR-Headset mit der Möglichkeit, ein Zwei-Wege-Video verarbeiteter Bilder abzuspielen. Ich weise darauf hin, weil der Glaube und sogar die falsche Vorstellung von der Vision Pro darin bestehen, dass sie der erste Schritt auf dem Weg zu einer viel schlankeren AR-Brille des Unternehmens ist, während Apple in Wirklichkeit stark auf VR setzt und irgendwann einige davon aufgeben muss Die herausragenden technologischen Merkmale des Headsets ermöglichen den Übergang zu echter AR.

So beeindruckend die digitale Krone des Vision Pro auch ist, in einer AR-Umgebung hat sie keinen Zweck und für VR-Erlebnisse ist sie ebenso nutzlos. Die digitale Krone des Vision Pro verankert den VR-Aspekt des Headsets und damit Apple Schritte hin zu echten AR-Erlebnissen unternehmen kann, wird es höchstwahrscheinlich aufgeben müssen.

Irgendwann muss auch auf das vermutlich teure äußere Display verzichtet werden, da sein einziger Zweck darin besteht, die Realität zu verschleiern, dass es sich beim Vision Pro eigentlich nur um ein VR-Headset handelt, indem die digital aufgesetzten Augen auf die Vorderseite übertragen werden, sodass es so aussieht, als gäbe es einen Blick hinein das Sehvermögen des Benutzers.

Im Gegensatz zur HoloLens, die transparente Linsen verwendet, um ihre AR-Erlebnisse zu schaffen, verwendet die Vision Pro Kameras, um die Außenwelt einzufangen und an die Linsen des Headsets weiterzuleiten. Dies ist im Wesentlichen der Unterschied zwischen dem Tragen einer getönten Brille draußen und dem Hochhalten Ihres Telefons zum Aufzeichnen Während das Ergebnis das gleiche ist, ist die Reproduktion weitaus weniger kompliziert und kostspielig.

Der Vergleich hier ist, dass, wenn Microsoft jemals seine HoloLens-Entwicklung wiederbelebt, die Idee, die Technologie um die transparenten Linsen herum zu verkleinern, ein viel näheres Ziel für AR-Brillen ist als die Umstellung auf ein vollständig immersives VR-Headset mit Videoaufnahme.

Letztendlich hat Apple ein wirklich schönes und technologisch fortschrittliches Headset entwickelt, das das Realitätsverzerrungsfeld des Geräts in die Höhe treibt, aber es sind die nächsten sechs Monate und die nächsten sechs Jahre, in denen ständig Widerhaken auf das Feld geworfen werden, um zu sehen, ob Apple das überwinden kann Dieselben Hindernisse, über die jedes andere Headset gestolpert ist.

In den nächsten sechs Monaten bis zu den nächsten sechs Jahren wird sich zeigen, ob Apple seine Aufmerksamkeit von der Herstellung fetischisierter Hardware auf Gespräche mit nationalen und internationalen Regulierungsbehörden lenken kann, um eine AR-Datenbank zu erstellen, auf die über die Cloud zugegriffen werden kann, um relevante Daten legal zu erfassen Die Aussenwelt.

Wir müssen abwarten, welche Auswirkungen die Gesichtserkennungssoftware des Unternehmens, die die Gesichter von Personen identifiziert und aufzeichnet, die mit Benutzern des Vision Pro interagieren, zum Stoff für Regierungsdebatten und Gesetzgebung wird.

Wir müssen auch sehen, ob es den Entwicklern gelingt, auch in puncto Headset-Erlebnisse aus dem Kreislauf der Redundanz herauszukommen. Apple gab bekannt, dass das Vision Pro vom ersten Tag an über Hunderte von Apps verfügen wird, da es Apps, die für den 2D-Smartphone-Bildschirm entwickelt wurden, als akzeptable Erfahrungen für ein VR/AR-Headset ansieht.

Ja, das Scrollen durch Instagram mit den Augen wird schön sein, es unterscheidet sich grundsätzlich nicht von der Verwendung des Fingers oder einer Maus. Das Gleiche gilt für alle Apps, die mit Touch- und haptischem Feedback von einem Smartphone entwickelt wurden und in den App-Katalog des Vision Pro portiert werden . Apple scheint den gleichen Fehler zu machen wie Windows, weil man dachte, man könne Maus- und Tastatur-Apps einfach auf Tablets portieren und das als Volumengewinn bezeichnen.

Erlebnisse sollten sich nativ für das Gerät anfühlen, andernfalls verwenden Benutzer einfach das effizienteste Gerät für scheinbar überflüssige Erlebnisse, und oft bedeutet das, dass sie auf den schweren Computer mit eingeschränkter Mobilität, Akkulaufzeit und Anwendungsfällen verzichten müssen.

Zugegebenermaßen fällt das Vision Pro erst nächstes Jahr in die Hände der Entwickler, und in sechs Monaten kann sich viel ändern, aber aus einer Entfernung von 30.000 Fuß hat Apple ein VR-Headset entwickelt, das Video-Passthrough ermöglicht, um sehr ähnliche AR-Erlebnisse zu bieten durch andere Geräte. Derzeit ist unklar, wie sich Apples Vision Pro von einer übergroßen Skibrille zu dem unwahrscheinlichen Standard einer AR-Brille entwickeln wird, an den alle anderen Headsets gehalten wurden.