Das Video zeigt, wie Apple Glasses funktioniert, und wir erklären, wie es funktioniert

Das Video zeigt, wie Apple Glasses funktioniert, und wir erklären, wie es funktioniert

Am 10. September, neben der Golden Master-Version von iOS 13 und Beta 3 von 13.1, und Apple Something “rutschte aus”. Normalerweise nachdem diese Versionen veröffentlicht wurden sind in der Regel “rein” aus jeder Bibliothek, die mit Produkten verknĂĽpft ist, die Apple noch nicht angekĂĽndigt hatDies gilt umso mehr, als die Medien einen normaleren Zugang zu Programmierern haben, die dank Reverse Engineering nach etwas suchen können, das “nicht da sein sollte”.

Bei dieser Gelegenheit fĂĽhrte dieser “RĂĽcktritt” den renommierten Programmierer Steven Troughton-Smith dazu, die README-Datei der Personen zu finden, die jeden Buchladen als Referenz begleiten. Enthält detaillierte Anweisungen zum Testen der StarBoard-Bibliothek (eine, die derzeit fĂĽr kein Gerät öffentlich existiert).

LESEN Sie StarBoard

In diesen Anweisungen sehen wir die auszufĂĽhrenden Befehle und wie man auf Softwaretests zugreift, ohne ein sogenanntes “HME” zu haben das physische Gerät der zukĂĽnftigen Augmented-Reality-Objektive von Apple. Er erklärt, dass dieses Gerät zwei Modi hat: einen “Pause” – oder “Pause” -Modus und einen “verwendeten” Modus, der als “angezogen” erscheinen könnte. Diese Modi dienen zum Testen von Anwendungen im Dual-Modus.

Als Entwickler habe ich mir die Namen der Funktionen und Parameter angesehen, die diese Modi wahrnehmen, und wie sie mit den Ansichten funktionieren, die die Funktionalität von Augmented-Reality-Anwendungsszenen bieten, und bin zu dem Schluss gekommen Augmented Reality-Apps funktionieren auf einem iPhone genauso wie auf der Apple Watch Im Moment und seine Anwendungen. Dies bedeutet, dass Augmented-Reality-Objektive kein eigenständiges Gerät sind und alle Vorgänge am Telefon ausführen. Die Objektive wirken also wie ein zweiter iPhone-Bildschirm, der frei aktiviert werden kann.

Okklusion von Personen in ARKit 3

In den Informationsdateien der unterstützten Geräte Es gibt ein neues iPhone mit A13-Prozessor (11 und 11 Pro) sowie iPhone XS, XR und XS Max, jedoch keine früheren Generationen. Es ist sinnvoll, dass viele der neuen Funktionen der Augmented Reality-Bibliothek ARKit 3.0 in iOS 13 auf Geräte mit dem A12-Prozessor beschränkt sind. Unter ihnen ist das auffälligste Okklusion von Menschen Auf diese Weise können Sie Personen vor AR-Objekten erkennen und simulieren, dass sie sich vor ihnen befinden, damit sie nicht an die Stelle der Person gezogen werden. Auch andere Optionen, wie die gleichzeitige Verwendung der vorderen und hinteren Kamera oder die Aufzeichnung der Bewegung von Personen.

Während wir die Objektive tragen, werden AR-Apps auf ihnen ausgefĂĽhrt, wenn wir ein gesperrtes Gerät haben und Siri fragen (oder es auf seinem Schreibtisch oder in einer AR-Launcher-App ausfĂĽhren). Obwohl der gesamte Prozess ĂĽber das Telefon wäre. Alle Anwendungen können jedoch auch auf dem Telefon ausgefĂĽhrt werden, und wir können ihre Anzeige frei auf die Objektive oder den Bildschirm des Telefons ĂĽbertragen, ähnlich wie bei Sidecar auf dem Mac, der einen zweiten Monitor direkt an das iPad sendet. Wenn keine Anwendung ausgefĂĽhrt wird, befinden sich die Objektive im Modus “Angehalten” (als wären sie in der Warteschleife), sodass sie nichts verbrauchen wĂĽrden. Es ist, als wĂĽrden wir die Uhr bei ausgeschaltetem Bildschirm in der Hand halten, weil wir sie nicht betrachten.

ARKit 3 Traffic Capture

Durch die Nutzung dieser neuen Bewegungserkennungstechnologien in Augmented Reality oder menschlicher Okklusion wären die Erfahrungen mit diesen Objektiven viel realer und würden es den Menschen, die wir sehen, sogar ermöglichen, mit Objekten in dieser virtuellen Realität zu interagieren. Wie kannst du das jetzt machen? Wir hätten Erfahrungen austauschen können und dass mehrere Objektive dieselbe Erfahrung sehen und damit interagieren. Um (um ein Beispiel zu nennen) ein Spiel, bei dem ein riesiger Ball untereinander geworfen wird, wäre es mit den heute verfügbaren Werkzeugen mehr als technisch möglich.

Debugging-Modus

Apple erwägt die Möglichkeit, dass die App-Entwickler selbst kein physisches Gerät haben, um ihre Erfolge zu testen hat einen “simulierten” Modus mit einem Gerät oder sogar einem Mac erstellt im iOS-Simulatormodus. Der Modus, der jetzt ist, wie wir ĂĽber den Tweet unter diesen Zeilen gesehen haben, hat es geschafft, in den Testmodus zu gelangen.

Wir sehen stereoskopisches Sehen, Hier bewegen wir uns durch eine vollständige 3D-Umgebung, ohne die Realität hinter dem Gerät zu sehen, wenn es auf einem Mac ausgeführt wird. Auf die gleiche Weise können wir heute Augmented-Reality-Anwendungen mit dem iOS-Simulator ausprobieren, bei dem der Teil, der aus der Kamera kommt, schwarz ist. Auf diese Weise können wir den Datenverkehr simulieren und nachweisen, dass die Umgebung ordnungsgemäß funktioniert, auch wenn wir ihre Integration in die Umgebung nicht sehen.

Reality Composer

Wenn wir keine Objektive haben, aber ein Handy benutzen können, dann Es wird ein Modus aufgerufen, der dem Fall von Google Daydream ähneltwo wir unser Handy vor unsere Augen stellen würden und die Kameras das Gleiche für den Rest tun würden. Auf diese Weise könnten die Entwickler versuchen, an den Apps zu arbeiten, bevor die Objektive starten. Was Apple stoppt, ist der Schlüssel, wenn Sie möchten haben Anwendungen für diese Objektive bei der Freigabe.

Als Apple die erste Apple Watch auf den Markt brachte, stellte sie sie 7 Monate vor ihrem Start vor und übergab die Tools für die Anwendungsentwicklung an Entwickler. Der Weg, sie zu testen, war mit einem Add-On, das einen iOS-Simulator hatte, der selbst eine Uhr auf einem Mac war. Bei dieser Gelegenheit Die Testmodi wären diese beiden.

Volles Eintauchen in AR

Der Entwickler hat einen Code zur Aktivierung dieses Modus bereitgestellt, damit jeder ihn ausprobieren kann. Er hat es sogar geschafft, mit dem A11-Chip an einem iPhone X zu arbeiten, aber wie er sagt: Es hat Fehlfunktionen auf einem Auge (wie im Video zu sehen) und es funktioniert nicht sehr gut. Der XS, mit dem er es später versuchte, bestätigte, dass alles perfekt lief.

Wie aus einigen Konfigurationsdateien extrahiert, würde Apple mit drei Prototypen arbeiten: Franc, Luck und Garta. Jeder von ihnen hätte ein anderes Sichtfeldobwohl wir davon ausgehen, dass das letzte Gerät, das auf den Markt kommt, nur eines davon sein wird. Das erste hat ein Sichtfeld von 61 Grad (Sichtfeld), das zweite 58 und das letzte 68. Wir müssen uns daran erinnern, dass AR-Linsen nicht das gesamte Sichtfeld des Auges abdecken, sondern nur einen bestimmten Bereich, in dem wir die projizierte Realität sehen.

Oktober 2019, März 2020 oder September 2020

Dies sind die unterstützten Daten: Oktober 2019 In Neu Keynote Dies kann der Moment sein, in dem Prototypen vorgestellt und die Tools der Öffentlichkeit zugänglich gemacht werden Dies haben wir heute kommentiert, damit Entwickler an Anwendungen arbeiten können, während die Objektive laufen. Die Premiere kann im März nächsten Jahres und sogar im September in der nächsten Generation von iPhones (iPhone 12?) Stattfinden.

Es gibt zweifellos viele Unbekannte über dieses neue Gerät, aber wir können uns die Apple Watch vorstellen. Es hat Jahre gedauert, um als Gerät zu reifen, und es hat die meisten Menschen erreicht und ein ausgereiftes Ökosystem von Apps und Diensten erhalten. Diese Objektive wären für Apple ein erster Schritt in die richtige Richtungdas Produkt zu reifen und auf den Markt zu bringen, wie es bei früheren Gelegenheiten getan wurde. Lassen Sie uns abwarten, was sie uns sonst noch bieten.