Google und LG zeigen hochauflösendes OLED-Display für VR-Anwendungen

Das 4,3-Zoll-Display von LG und Google bietet ein 120 Grad horizontales und 96 Grad vertikales Sichtfeld sowie beeindruckende 4800 x 3840 Pixel pro Auge. Außerdem hat es eine Pixeldichte von 1443 Pixel pro Zoll und eine Bildwiederholrate von 120 Hz.

Googles Chef für Augmented und Virtual Reality Clay Bavor sagte letztes Jahr, dass man VR-Displays weiter entwickeln müsse, bis sie sich „ganz real“ anfühlen. Der Zeitpunkt scheint nun ein gutes Stück näherzukommen. Zusammen mit LG hat Google auf der Display Week 2018 eine Lösung vorgestellt, das sie als „das höchstauflösende Display der Welt“ bezeichnen.

In einem dazu veröffentlichten Papier stellen die Forscher jedoch noch erhebliche Hürden fest, um eine Darstellung zu erreichen, die dem menschlichen Sehen sehr nahe kommt. Ein Headset müsste ein weites Sichtfeld (FoV) von über 100 Grad und ein Display mit einer Auflösung von 1000 bis 2200 Pixel pro Zoll und 15 bis 25 Millionen Pixel pro Auge bieten.

Selbst diese Spezifikationen kommen einem menschenähnlichen Sehsystem nicht nahe. Dies würde eine 160 Grad horizontale FoV und eine 150 Grad vertikale FoV erfordern. Eine Sehschärfe von 20/20 für dieses FoV würde ebenfalls 9600 x 9000 Pixel pro Auge erfordern.

Google und LG zeigen ein hochauflösendes VR-Display (Bild: LG, Google)

Das 4,3-Zoll-Display, das LG und Google nun entwickelt haben, entspricht noch nicht ganz dieser Zielvorstellung. Es bietet ein 120 Grad horizontales und 96 Grad vertikales Sichtfeld sowie beeindruckende 4800 x 3840 Pixel pro Auge. Außerdem hat es eine Pixeldichte von 1443 Pixel pro Zoll und eine Bildwiederholrate von 120 Hz. Zum Vergleich: Das HTC-VR-Headset Vive Pro bietet dem Anwender ein wesentlich schärferes Bild als sein Vorgänger Vive, aber das Display verfügt „nur“ über 1400 x 1600 Pixel pro Auge.

Google und LG zeigen hochauflösendes VR-Display (Bild: Google, LG)Google und LG zeigen hochauflösendes VR-Display: Foto des 4,3 Zoll großen OLED Displays durch die VR-Optik (Bild: Google, LG).

Das Display von Google und LG wird den Sprung vom Labor zum Endverbraucher aber derzeit nicht schaffen. Google-Mitarbeiter Carlin Vieri sagte, dass dieses Projekt darauf abziele, „die Industrie voranzutreiben“. Zu diesem Zweck versuchten die Forscher, das Anzeigesystem so zu optimieren, dass es mit einigen realistischen Einschränkungen arbeitet, zum Beispiel, indem es von einem mobilen System mit einer Bildwiederholrate von 75 Hz oder 90 Hz betrieben wird.

„Wir haben ein OLED-Display mit einer sehr hohe Pixelanzahl (>18MP) und einer ultrahohen Pixeldichte (1443 ppi) für VR-Anwendungen entwickelt und hergestellt“, erklären die Forscher. „Dies ist das derzeit weltweit höchstauflösende OLED auf Glasdisplay. Um die hohen ppi-Anforderungen zu erfüllen, wurden weiße OLED-Materialien und Farbfilter verwendet, und eine LTPS-Backplane vom Typ n wurde verwendet, um die Anforderungen an die Panelansteuerung und das Image Ghosting zu erfüllen.

„Die Foveationslogik wurde in einem FPGA implementiert, um das auf einem mobilen Prozessor gerenderte Bild mit niedriger Bandbreite in den vom Display benötigten Strom mit hoher Bandbreite umzuwandeln. Das Ergebnis ist ein atemberaubendes visuelles Erlebnis in einem mobilen VR-System.“

Samsung Gear VR (Bild: Samsung)Die Auflösung von Smartphones, die zur Ansteuerung von VR-Headset genutzt wird, ist so niedrig, dass man einzelne Pixel deutlich erkennnen kann (Bild: Samsung).

Um die Limitierungen aktuelle Mobilprozessoren zu umgehen, haben die Forscher mehrer Techniken entwickelt. In diesem Zusammenhang sprechen sie von „foveation“ der aus zwei Teilen besteht: Foveated Rendering und Foveated Transport. Foveated Rendering ist eine Technik zur Reduzierung der Rendering-Berechnung im Grafikprozessor. Foveated Transport ist eine Technik zur Anordnung der gerenderten Pixeldaten für die Übertragung von der GPU zum Display. Die Anzeigelogik verarbeitet dann die Bilddaten der verschiedenen Regionen, um ein Bild mit der nativen Pixelzahl des Displays zu erzeugen.

Ein konventionelles (unfoveated) Bild wird typischerweise als serialisiertes Raster mit horizontalen und vertikalen Ausblendbereichen gesendet. In einem foveierten System müssen mehrere Regionen mit unterschiedlichen Auflösungen gerendert und übertragen werden. In dem von Google und LG entwickelten System werden die Regionen am Grafikprozessor zu einem einzigen Bildrahmen mit einer nicht standardmäßigen Pixelanzahl zusammengefügt, zusammen mit einigen Bytes Bildmetadaten zur direkten Bildrekonstruktion und Ausblendung von Regionen.

Aktuelle VR-Headsets wie Samsung Gear VR sind bei der Darstellung auf die Auflösung eines Smartphones angewiesen. Derzeit beträgt diese beispielsweise beim Galaxy S9+ 2960 x 1440 Bildpunkte. Damit sind einzelne Pixel im VR-Modus deutlich zu erkennen. Der mit Fliegengitter bezeichnete Effekt wirkt sich störend beim Konsum von VR-Inhalten aus. Diese Limitierungen sind der Grund für Google und LG an neuen Displays zu forschen, die eine größere Auflösung bieten, um ein möglichst realistisches Abbild in VR zu erzielen.

Coldplay-Konzert steht als VR-Version zur Verfügung (Bild: ZDNet.de)Das Coldplay-Konzert vom 17. August 2017 in Chicago hatte Samsung für GearVR-Nutzer kostenlos in Virtual Reality übertragen. Die Auflösung aktueller VR-Headsets ist aber noch sehr niedrig, sodass man einzelne Pixel gut erkennen kann (Bild: ZDNet.de).

Themenseiten: Google, LG, Virtual Reality

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Google und LG zeigen hochauflösendes OLED-Display für VR-Anwendungen

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *