Googles neuer Highend-Screen für Virtual Reality wird konkreter. Das OLED-Display bietet eine enorme Pixeldichte und eine VR-optimierte Renderfunktion.

Zum Start der Fachmesse Display Week in Los Angeles veröffentlicht Googles Projektteam die Spezifikationen eines neuen Highend-Displays für VR-Brillen. Googles VR- und AR-Chef Clay Bavor kündigte es erstmals auf der vergangenen Display Week im Mai 2017 an.

Jetzt sind die technischen Daten im Detail bekannt:

  • 4800 × 3840 Bildpunkte pro Auge
  • 2 Subpixel (Pentile), weiße OLED mit Farbfiltern
  • 4,3 Zoll 1443 ppi, > 18 Megapixel
  • 120 × 96° monokulares FoV (HTC Vive & Oculus Rift: 100 x 110°)
  • 40 Pixel pro Grad (HTC Vive & Oculus Rift: circa 11)
  • 120 Hz
  • 1,65 ms Reaktionsgeschwindigkeit (unterstützt Low Persistence)
  • 10-Bit-Farbe (unterstützt über 80 Gbps über beide Augen)
  • 150 cd/m2 Helligkeit
  • unterstützt Grafikkarten mit DisplayPort / HDMI (mobil und stationär)
  • Foveated Transport: 640 × 640 Center, 1280 × 1600 Peripherie, 1280 × 1922 kombinierte Auflösung
Das Bild zeigt das Display fotografiert durch die Linsen einer VR-Brille. Bild: Google

Das Bild zeigt links den Screen an sich und rechts fotografiert durch die Linsen einer VR-Brille. Bild: Google

Besonders interessant ist der letzte Punkt in dieser Auflistung: Eine kleine Displayfläche mit sehr hoher Auflösung wird unmittelbar im Fokusbereich des VR-Brillenträgers angezeigt. Er wird von einem größeren, dafür niedriger aufgelösten Bereich eingerahmt, der Bildinformationen des peripheren Sichtfelds darstellt.

Das Schaubild zeigt, wie der niedrig und der hoch aufgelöste Bereich zu einem Gesamtbild zusammengeführt werden. Grafik: Google

Das Schaubild zeigt, wie der niedrig und der hoch aufgelöste Bereich zu einem Gesamtbild zusammengeführt werden. Grafik: Google

Dem VR-Brillenträger fällt dieser optische Trick im Optimalfall nicht auf, da er an das natürliche Sehen angelehnt ist: In der echten Welt sehen Menschen ebenfalls nur einen kleinen Bereich scharf, der in etwa so groß ist wie ein Daumennagel am Ende eines ausgestreckten Arms. Seheindrücke außerhalb dieses Bereichs werden auf der Netzhaut zunehmend unscharf abgebildet.

Googles VR-Display macht sich diesen Effekt zunutze, um bei geringerem Rechenaufwand dennoch ein visuell eindrucksvolles Bild anzuzeigen. Laut Googles Ingenieuren bieten selbst mobile VR-Brillen dank dieser Darstellungslogik richtig gute Grafik.

In Kombination mit einem Eyetracking-System (Foveated Rendering) kann der hochaufgelöste Bereich sehr klein gehalten werden, weniger als 15 Prozent der gesamten Sichtfeldweite sind laut Google möglich.

Allerdings kann das Bild auch ohne Eyetracking in Bereiche mit unterschiedlicher Schärfe unterteilt werden, passend zum optischen System der VR-Brille. Ein ähnliches Verfahren entwickelte Oculus für die mobile VR-Brille Oculus Go (Fixed Foveated Rendering).

Ob und wann das Display in einer VR-Brille verbaut wird, ist noch nicht bekannt. Womöglich gibt es dazu im Laufe der Display Week diese Woche weitere Informationen.

Das Bild zeigt den Übergang zwischen dem Fokusbereich und dem geringer aufgelösten peripheren Sichtfeld. Bild: Google

Das Bild zeigt den Übergang zwischen dem Fokusbereich und dem geringer aufgelösten peripheren Sichtfeld. Bild: Google


Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast: E3 2018 - war es das mit VR? | Alle Folgen anhören


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.