http://www.faz.net/-gy9-8p301
HERAUSGEGEBEN VON WERNER D'INKA, JÜRGEN KAUBE, BERTHOLD KOHLER, HOLGER STELTZNER
F+ Icon
F.A.Z. PLUS
abonnieren

Veröffentlicht: 06.01.2017, 12:04 Uhr

Handy kann 3D scannen Infineon lässt Google Tango tanzen

Asus präsentiert ein Smartphone, das mit Hilfe von Googles Software Objekte in 3D scannen kann. Für die Idee der Augmented Reality ist das ein wichtiger Schritt.

von , Las Vegas
© Marco Dettweiler Wenn die Katze von hinten am Bildschirm des Smartphones kratzt: Am Stand von Infineon lassen sich verschiedene Anwendungen von Googles Projekt Tango sehen.
 
CES 2017: Das Zenfone AR kann mit Hilfe von Googles Software Tango Objekte in 3D scannen

Das Projekt Tango von Google schreitet endlich voran. Nachdem Lenovo auf der Ifa mit dem Smartphone PHAB2 Pro den ersten Schritt gemacht hat, folgt nun Asus mit dem Zenfone AR auf der Consumer Electronics Show (CES) in Las Vegas. Die beiden Geräte können mit Hilfe der Software von Google ihre Umgebung in 3D scannen oder dreidimensionale Objekte in die Umgebung projizieren. Das PHAB2 und Zenfone AR sind die ersten Geräte, die Googles Software anwenden können.

Marco Dettweiler Folgen:

Es gibt dabei zwei Verfahren. Im ersten Fall genügt es, mit dem Smartphone einen realen Gegenstand zu umkreisen, damit dieser auf dem Display als 3D-Objekt erscheint. Umgekehrt kann man in bestimmen Apps virtuelle Gestalten oder Gegenstände so in den Raum projizieren, als wären sie ein Teil von ihm. Das geschieht in Echtzeit. Letzteres ist dann nichts anderes als Augmented Reality.

Der Clou ist der Sensor

Bei beiden Smartphones liefert Infineon den dafür entscheidenden Teil der Hardware. Das Kameramodul arbeitet mit einem 3D-Bildsensorchip. Neben der klassischen RGB-Kamera, die das Smartphone auf der Rückseite hat, kommt ein Fischaugen-Objektiv mit Schwarz-weiß-Aufnahmen und einem Winkel von 120 Grad hinzu, das schnelle Bewegungen der Umgebung registriert. Der Clou bei dieser Kamera ist nun der Sensor von Infineon. Er sendet durch eine kleine quadratische Öffnung Infrarotlicht, das von den Gegenständen reflektiert wird, das wiederum durch das zweite Quadrat (siehe Bild) eingefangen wird.

44085495 © Marco Dettweiler Vergrößern Das Zenfone AR von hinten: Hinter den beiden Quadraten rechts steckt die Sensortechnik von Infineon.

Dahinter befindet sich der Sensor, der wie bei einer Kamera mit Pixeln das Licht registriert. Doch dieser erkennt nicht nur die Helligkeit, sondern auch wie lange das Licht unterwegs war. Für dieses Time-of-flight-Verfahren wird Infrarotlicht ausgestrahlt und in einer Frequenz von 80 Megahertz immer wieder ein- und ausgeschaltet. Im Unterschied zu anderen Time-of-Flight-Verfahren breitet sich das Infrarotlicht nicht wie ein Gitternetz aus, sondern diffus wie ein Nebel. Dadurch kommt es nicht zu Verzerrungen, es misst exakter. Weil das Infrarotlicht unterschiedlich lange braucht, um reflektiert zu werden, weiß die Software, wie weit ein Gegenstand vom Smartphone entfernt ist. Aufgrund dieser Information wird aus dem zweidimensionalen ein dreidimensionales Bild. Die zeitliche Messung braucht wenig Rechenaufwand, sodass die Kamera für diese Technik gerade mal 150 Milliwatt verbraucht.

Noch etwas pixelig

Es gibt nun zwei Anwendungsszenarien: Zum einen die dreidimensionale Abbildung der Objekte, die vor der Kamera aufgenommen werden. Hat man sie gescannt, bereitet sie die Software so auf, dass man sie wie ein 3D-Modell drehen und wenden kann. Da das Smartphone bei dieser Anwendung nur 5 Bilder pro Sekunde aufnimmt, wirken die Objekte noch etwas pixelig.

Objekte lassen sich mit diesem Verfahren auch schnell messen. Man hält die Kamera etwa vor einen Schrank, markiert die Ecken und die Software nennt Höhe, Breite und Tiefe des Schranks. Mit diesen Daten kann man beim nächten Ikea-Besuch schon einmal planen, der endgültige Einkauf kann allerdings nicht stattfinden, weil die Messgenauigkeit bei etwas weniger als zehn Prozent Abweichung liegt. Doch der Screenshot taugt auf jeden Fall für eine erste Vorauswahl.

Mehr zum Thema

Eine weitere Anwendung ist die In-Door-Navigation ohne GPS, die bei Google wohl im Fokus stand, als das Projekt Tango gestartet wurde. Nimmt man den Weg in einem Gebäude auf, erkennt Googles Software bei abermaligem Abschreiten, wo das Ziel war. Nutzer können sich also ihr eigenes Street-View in 3D erstellen.

Mit VR-Brille wirkt die Illusion deutlich echter

Die hauptsächliche Anwendung liegt wohl im Spielebereich. Dann wird die reale Umgebung ergänzt, also eine Augmented Reality hergestellt. Der Stand von Infineon auf der CES wurde dann mit Dominosteinen vollgestellt, Katzen und Hunde auf den Tisch gesetzt oder Dinosaurier auf den Boden gestellt. Der Clou bei Augmented Reality ist die Erstellung in Echtzeit. Bewegt sich der Nutzer oder kippt das Smartphone etwas zur Seite oder nach oben oder unten, bleiben Katze, Dominostein oder Dinosaurier an der gleichen Stelle, ihre Darstellung passt sich der neuen Perspektive an. Man nutzt das Display des Smartphones gewissermaßen wie ein Fenster in die Augmented Reality.

Noch attraktiver wird das Projekt Tango, wenn man nicht auf den Bildschirm des Smartphones schauen muss, sondern eine VR-Brille aufsetzt. Dann ist die Illusion, dass die fiktiven Objekte zur Umgebung gehören, viel echter. Googles VR-Brille Daydream ist übrigens kompatibel mit den Smartphones. Eigentlich hätte es nahe gelegen, das Google sein hauseigenes Smartphone Pixel mit der Tangotechnik ausstattet. Doch soweit geht Googles Tanz dann doch nicht.

No Noreply

Von Michael Spehr

Einer der fleißigsten E-Mail-Versender hat stets dieselbe Absenderadresse: Noreply. Er arbeitet zudem in unterschiedlichen und nahezu allen deutschen Unternehmen. Mehr 3 28

Hinweis
Die Redaktion
Zur Homepage