Zephyrnet-Logo

Apple Vision Pro im Hands-On: Meta in entscheidenden Punkten weit voraus

Datum:

Wir haben Apple Vision Pro während der WWDC23 im Apple Park in Kalifornien ausprobiert und waren von der besten Headset-Demo aller Zeiten überwältigt. Wir müssen noch viel über das Gerät lernen, aber lesen Sie weiter für unsere ersten Eindrücke.

Personas nennt Apple menschliche Scans, die vom Vision Pro-Headset durchgeführt werden und an die gescannte Person gebunden sind, um zu verhindern, dass andere sie tragen. Meta nennt seine Forschungsversion seiner vergleichbaren Technologie Codec Avatars, und wir haben die neueste Version davon Ende letzten Jahres in Metas Büros gesehen.

Ob von Apple oder Meta, die Idee ist vielleicht die ultimative Killer-App der virtuellen Realität. Es ist der Schlüssel, um das Gefühl zu vermitteln, dass sich jemand tatsächlich mit Ihnen in einem Raum befindet, auch wenn er körperlich weit entfernt ist. Metas Forschungsleiter, der das Projekt beaufsichtigte, beschrieb eine Handvoll Wunder, die nötig seien, um das Konzept in großem Maßstab umzusetzen. Dabei geht es nämlich darum, eine Person durch die schnelle Verwendung eines Telefons oder Headsets genau zu scannen, kombiniert mit Headset-basierten Sensoren, die Augenbewegungen und Gesichtsausdrücke beobachten können, um den Avatar glaubwürdig zu steuern.

Meta zeigte letztes Jahr zwei relevante Demos, eine mit einem Avatar, der von einem Telefon aus gescannt wurde, und eine andere mit einer Person, die in Metas „Sociopticon“ von 220 hochauflösenden Kameras im Laufe von Stunden gescannt wurde, wobei die Verarbeitungszeit für den resultierenden virtuellen Menschen in Tagen gemessen wurde oder Wochen. Der vom Telefon gescannte Avatar war zutiefst beunruhigend und ich wollte ihn nach ein paar Sekunden nicht mehr ansehen. Das Ultra-High-Fidelity-Modell hingegen wurde von einem PC-betriebenen Headset angetrieben und ich hatte das Gefühl, dass es das sogenannte „Uncanny Valley“ überschritten hatte. Mit dieser Version des Codec-Avatars fühlte es sich tatsächlich so an, als ob er sich mit mir unterhielte und Augenkontakt herstellte. Ich hatte das Gefühl, mit einer Person, die Tausende Kilometer von mir entfernt war, so bequem sprechen zu können, als wären wir zusammen im selben Raum. Ich hatte das Gefühl, den Nordstern gesehen zu haben, der die Zukunft des räumlichen Rechnens lenkt.

Apples Persona links vs. Metas Codec-Avatar rechts

In der Demo von Apple gab es unterdessen einen Live-FaceTime-Anruf mit einer anderen Person, die ebenfalls ein Vision Pro trug, und er vermittelte die Idee, dass wir in diesem Format gemeinsam an einem FreeForm-Whiteboard arbeiten könnten. Ihre „Persona“ sei vom Headset gescannt worden, sagte Apple, und es habe sich angefühlt, als ob das Qualitätsniveau genau zwischen den beiden Demos von Meta im letzten Jahr lag. Dies war die Darstellung einer Person, mit der ich mich nach ein paar Minuten nicht wohl fühlen würde, und es fühlte sich ganz sicher nicht so an, als ob sie bei mir wäre und in einem schwebenden Fenster gefangen wäre.

Ich beginne hier mit Personas, weil dies der einzige Teil der Apple-Demo war, in dem ich enttäuscht war. Während die hochwertigste Version von Metas Avatar-Technologie auf dem PC beeindruckte, war sie auf Quest Pro nirgends als eigenständige Version zu finden. Apple plant es inzwischen als Kernaspekt seines Vision Pro der ersten Generation und hat es mir direkt in einem eigenständigen räumlichen Computer gezeigt.

Anders ausgedrückt: Sowohl Meta als auch Apple greifen mit diesem speziellen Teil ihrer Technologien ein Stück in die Zukunft und keines der beiden hyperrealen Gesichter ist absolut glaubwürdig und leicht zu erstellen.

Wenn es um alles andere geht? Vision Pro übertrifft Meta Quest Pro und jedes andere VR-Headset, das ich je ausprobiert habe, in einem Ausmaß, das absolut umwerfend ist. Ich konnte erkennen, dass das Gewicht des Headsets immer noch etwas anstrengend ist, und Apple wollte nicht über das Sichtfeld sprechen, aber es fühlte sich zumindest konkurrenzfähig an, wenn nicht sogar breiter als bestehende Headsets. Insgesamt war Vision Pro mit Abstand die beste VR-Headset-Demo, die ich je ausprobiert habe.

Der Passthrough von Vision Pro ist so gut, dass er transparente AR-Optiken in Frage stellt

Als ich mit Vision Pro zum ersten Mal den physischen Raum durch das Display des Headsets im Passthrough sah, schaute ich auf meine eigenen Hände und hatte das Gefühl, als würde ich sie direkt ansehen. Das war ein kraftvoller Moment, kraftvoller als alle bisherigen „Premieren“, die ich in VR erlebt hatte. Ich habe das Bedürfnis, es noch einmal zu wiederholen. Ich schaute auf meine eigenen Hände, die von den Sensoren eines Headsets rekonstruiert wurden, und es fühlte sich an, als würde ich sie direkt ansehen.

Im letzten Jahrzehnt kämpften VR-Entwickler mit einer Reihe schwieriger Designfragen. Sollten nur verfolgte Controller-Modelle angezeigt werden? Sollten sie Cartoon-Hände anbringen? Wie wäre es, diese Hände mit Armen zu verbinden? Sicher, das sind alles interessante Designfragen, aber das sollten zweitrangige Umsetzungen für jemanden sein, der einfach nach unten schaut und das Gefühl hat, seine Hände seien seine eigenen. Vision Pro hat dies zum ersten Mal in der VR-Hardware von Anfang an geschafft. Es hat so gut funktioniert, dass ich mich frage, wie transparente Optiken, wie sie in HoloLens 2 oder Magic Leap 2 verwendet werden, jemals mit Apples Version von Passthrough Augmented Reality in einem VR-Headset mithalten können.

Passthrough war keineswegs perfekt – ich konnte immer noch eine Art nervöses visuelles Artefakt bei schnellen Kopf- oder Handbewegungen erkennen. Außerdem konnte ich in einigen Programmen von Apple einen dünnen Umriss um meine Fingerspitzen erkennen. Aber das sind unglaublich kleine Kritikpunkte im Vergleich zu der Vorstellung, dass dies Tag und Nacht besser war als jedes andere Passthrough-Erlebnis, das ich je gesehen habe. Von nun an werde ich jedes Mal, wenn ich Quest Pro Passthrough durchschaue, frustriert sein, dass ich Vision Pro nicht verwende.

Lohnt sich der Unterschied zwischen dem 1000 $ teuren Quest Pro und dem 3500 $ teuren Vision Pro?

Ich werde meine Antwort auf diese Frage so formulieren: Können Sie es sich leisten, 2500 US-Dollar extra für einen besseren Sehsinn zu bezahlen?

Der Unterschied ist, als ob Sie zum Lesen eine Sonnenbrille tragen würden, anstatt Ihr Sehvermögen durch eine Sehstärke korrigieren zu lassen. Sie können argumentieren, dass der Preisunterschied so groß ist, dass diese Geräte unvergleichbar sind, oder Sie könnten argumentieren, dass klareres Sehen für manche Menschen Tausende von Dollar wert ist.

Ich fürchte mich bereits davor, in Quest Pro durch Passthrough zu schauen. Ich möchte einfach mehr Zeit mit Vision Pro verbringen. Bemerkenswert ist, dass Quest Pro zum Zeitpunkt der Auslieferung von Vision Pro und Quest 3 mehr als ein Jahr alt sein wird angeblich Funktionen bessere Durchleitung.

Eingabe und Multitasking

Ich versuche, objektiv und ausgeglichen zu bleiben. Manchmal scheitere ich, und der Moment in Vision Pro, in dem ich drei Apps nebeneinander in Fenstern vor mir hatte – und sie mühelos neu positionieren und ihre Größe ändern konnte, indem ich auf der Couch mit dem Blick nach vorne tippte? Nun, irgendwo in Apples Benutzer-Feedback-Berichten finden sich vielleicht ein paar Schimpfwörter, die ich über die Benutzeroberfläche von Meta Quest geäußert habe. Es hat einfach so gut getan zu sehen, dass Apple das so richtig hinbekommt. Drücken und ziehen Sie, um durch Menüs zu navigieren, oder schauen Sie sich an, was Sie auswählen möchten, und ziehen Sie, um es auszuwählen. Das ist es.

Ich habe meine Vision Pro-Demo mit der Überzeugung verlassen, dass Eye-Tracking-Prises tatsächlich ein Mausklick von AR und VR sein werden. Metas Armbandtechnologie hat auch einen Weg dorthin in ganztägiger AR aufgezeigt, und Quest Pro sollte hypothetisch in der Lage sein, das gleiche Eingabeparadigma sowohl mit Augen- als auch mit Hand-Tracking durchzuführen. Aber wie genau unterstützt Meta dieses Erlebnis auf Pro parallel zu Quest 2 und Quest 3? Die günstigeren Quests verfügen beide über Hand-Tracking, ihnen fehlt jedoch die entscheidende Eye-Tracking-Technologie, die für die gezielte Ausrichtung auf das, was Sie sehen, entscheidend ist. Das ist es, was Apples Hand-Tracking so anfühlte, als würde es „einfach funktionieren“, und das von Meta, nun ja, nicht.

In der Demo von Apple gab es keine künstliche Fortbewegung. Kein analoger Stick, der dich teleportieren oder krank machen könnte. Ich saß auf einer Couch und schaute mir Panoramafotos sowie 3D-Filme wie „Avatar 2“ an und veränderte ihre Größe. Mit dem Headset aufgenommene räumliche Fotos und Videos vermittelten ein schönes Gefühl von Tiefe, ebenso wie das von Apple gezeigte „immersive 180-Grad-Video“. wie die Früchte von Apple NextVR-Akquisition. Sie können diesen Inhalt nicht positionell verschieben, aber er sieht auf Vision Pro trotzdem gut aus.

Der letzte Teil meiner Demo öffnete ein wandgroßes Portal, durch das ein Dinosaurier stampfte und Augenkontakt mit mir aufnahm, während ich im Raum um ihn herumging. Die Apple-Mitarbeiter erinnerten mich daran, dass die Mauer immer noch physisch da war – was möglicherweise darauf hindeutet, dass nicht viele Leute darum bitten, bei ihren Demos aufzustehen. Ich lachte und versicherte ihnen, dass ich nicht der erste Mensch in einem Vision Pro sein würde, der versucht, schnurstracks durch eine feste Wand zu gelangen.

Wir werden mehr erfahren, während wir Apples überwältigende Informationsflut auf der WWDC23 verarbeiten. Im Moment können wir keine ausführlicheren Empfehlungen oder Ratschläge zu diesem Headset geben, wir empfehlen Ihnen jedoch dringend, sich Vision Pro anzusehen, wann immer Sie die Gelegenheit dazu haben.

spot_img

Neueste Intelligenz

spot_img