Videobilder werden auf lange Sicht in immer höherer Auflösung gestreamt und benötigen im gleichen Zug eine noch effizientere Komprimierung und damit einen Codec über HEVC (H.265) hinaus. Bereits 2015 hat hier die ITU Video Coding Expert Group (VCEG) und die ISO/IEC Moving Pictures Expert Group (MPEG) mit der Zusammenarbeit in dem Joint Video Experts Team (JVET) begonnen, um dieses Problem zu lösen. Letztes Jahr im Oktober hat das JVET dann offiziell dazu aufgerufen, Vorschläge für eine Videokodierungstechnologie nach HEVC einzureichen. Das Fraunhofer HHI hat reagiert und einen neuen Codec zur Verwendung im finalen Standard zum Jahr 2020 vorgeschlagen. Diesen zeigt das Institut jetzt auf der NAB erstmals. Dabei soll der neue Codec „signifikante Effizienzsteigerungen in der Komprimierung im Vergleich zu HEVC für ein breites Spektrum an Videoinhalten von High Definition (HD) bis hin zu High Dynamic Range Ultra-HD“ bieten.
Daneben zeigt man bei Fraunhofer den laut eigener Aussage weltweit ersten Demonstrator für durchgängiges Live-Video-Streaming von VR360 Videos mit einer Auflösung größer als 4K. Die auf der Messe gezeigte Live-Kette beinhaltet VR360 Video-Aufnahme und Live-Rendering von der Omnicam-360 mit einer Auflösung von 10K x 4K. Realisiert wird das durch HEVC Tile-basiertes Live-Encoding mit dem HEVC-Encoder des Fraunhofer HHI und einer Paketierung der Videoströme mit dem neuen MPEG-OMAF viewport-dependent Medienprofil. Die Übertragung und Wiedergabe gelingt auf neueste VR-Brillen und TV-Bildschirme. Mit der Kombination von MPEG-OMAF und HEVC Tiles existiert damit laut Fraunhofer nun ein internationaler Standard zur Verbreitung von hochauflösenden VR360 Videos für Endgeräte unter Verwendung der integrierten Videodecoder. Ein PDF zur Technik hier.
Weitere Neuerung ist ein integriertes 360-Grad-Multi-Kamera-Erfassungs- und Beleuchtungssystem, womit sich „hochrealistische“ volumetrischen Videos von sich bewegenden Personen realisieren lassen sollen. Das System besteht aus 16 Stereokameras, die 3D-Informationen aus allen Blickwinkeln um eine Person herum erzeugen. Die Daten wandelt das System schließlich in eine „konsistente, natürliche und dynamische 3D-Darstellung“ der Person. Die selbständig berechneten Sequenzen sollen Produzenten schließlich in VR- und AR-Anwendungen integrieren können.
Die Neuerungen sieht man am Stand SU4916 des Fraunhofer HHI auf der NAB 2018 in Las Vegas.