Was sind die Herausforderungen an Live-Produktionen bei 4K-HDR Content?
von Uwe Agnes, Artikel aus dem Archiv vom
Vor welche Herausforderungen stellt 4K-HDR-Content die Beteiligten an einer Live-Produktion? Und wie lassen sich simultan Inhalte für 4K-HDR-, 4K-SDR- sowie HD-SDR- und HD-HDR erstellen? Ein kurzer Blick auf zukünftige Herausforderungen und Möglichkeiten der Bewegtbilddarstellung.
Es gibt Stimmen, die behaupten, nicht etwa der Zuwachs an Auflösung beim Übergang von Standard Definition zu High Definition oder gar der von HD zu UHD sei die bedeutsamste Verbesserung im Bereich der Bewegtbilddarstellung seit der Einführung des Farbfernsehens vor 40 Jahren. Vielmehr sei dies der Qualitätssprung von Standard Dynamic Range (SDR) zu High Dynamic Range (HDR).
Der Unterschied in der Auflösung zwischen den verschiedenen Formaten lässt sich anhand von Beispielfotos noch gut zeigen. Beim Kontrastumfang eines Bewegtbildes mit High Dynamic Range ist jedoch eine Darstellung, die auch nur halbwegs dem tatsächlichen Seherlebnis entspricht, so gut wie ausgeschlossen. Dafür muss man eben vor einem HDR-Display sitzen und vorzugsweise solchen Content betrachten, der in einer durchgehenden HDR-Produktionskette erstellt wurde.
Fest steht jedenfalls, dass HDR ein weiterer Schritt hin zu einem realistischeren Bildeindruck bei der Darstellung von bewegten Inhalten ist. Die reale Welt um uns herum bietet von der Beleuchtung durch die Sterne bis hin zum grellsten Sonnenlicht im Schnee oder am Strand einen Kontrastumfang von ungefähr 23 Blendenstufen. Zur Erinnerung: Eine Blendenstufe entspricht der doppelten beziehungsweise halben Lichtmenge, also beträgt der größtmögliche Kontrastumfang auf unserer Erde ungefähr 1:10.000.000.
Das menschliche Auge ist an diesen Kontrastumfang in der Natur bemerkenswert gut angepasst und kann ungefähr 20 Blendenstufen unterscheiden. Kameras schaffen zwischen zehn und zwölf Blendenstufen, während herkömmliche Monitore nur sechs bis acht Blendenstufen wiedergeben. HDR-Monitore hingegen bringen es schon auf über zehn Blendenstufen und können somit den Kontrastumfang, den heute übliche Kameras liefern, annähernd vollständig wiedergeben.
(Bild: Sony)
Die Technik ist also im Prinzip vorhanden, um höherwertige Bewegtbilder zu verbreiten. Beim Content allerdings stellt sich die Lage derzeit noch etwas schwieriger dar. Bei Filmen, die für eine TV-Ausstrahlung in Farbe und Kontrast bearbeitet bzw. gegradet werden, muss der Kontrastumfang der Kameras an den der Standard-Displays angepasst werde.
Das bedeutet, er muss um zwei bis vier Blendenstufen selektiv komprimiert werden, was mit Hilfe einer entsprechend steilen Gamma-Kurve realisiert wird. Bei einer HDR-Fassung könnte hingegen der ursprünglich im Rohmaterial vorhandene Blendenumfang nahezu vollständig übernommen werden. Das beinhaltet für eine alternative HDR-Fassung des Stücks keinen wesentlichen Mehraufwand bei der Aufzeichnung, aber immerhin ein zusätzliches Grading für HDR-Zwecke.Das ist zwar aufwendig, aber im Prinzip machbar. Dennoch sind für HDR gegradete Produktionen zurzeit noch die große Ausnahme.
Bei der Live-Produktion von HDR-Content steht man allein schon wegen des Anspruchs, ein HDR-Signal in Echtzeit liefern zu müssen, vor ungleich größeren Herausforderungen. Hier stellt die Verwendung von High Dynamic Range-Technologien nichts anderes dar als einen weiteren grundlegenden Wandel für die Branche.
Gerade im Bereich der Live-Übertragungen und besonders der Berichterstattung von herausragenden Sport-Events ist damit zu rechnen, dass wie schon in der Vergangenheit fortschrittliche Technologien als Leuchtturmprojekte zuerst zum Einsatz kommen werden. Die gegenwärtig laufende Umstellung von HD auf UHD, die nicht zuletzt durch die Verkaufszahlen von UHD-Consumer-Displays angestoßen wird, stellt Live-Produktionsfirmen dabei vor bedeutende technische und wirtschaftliche Herausforderungen. Diese bestehen hauptsächlich darin, die neuen 4K-HDR-Produktionstechniken nahtlos in das bestehende Produktionsumfeld einzuführen, ohne die Qualität bei der Produktion des HD-Contents aufs Spiel zu setzen und dabei gleichzeitig die finanzielle Machbarkeit im Auge zu behalten.
„Realistisch betrachtet wird selbst 4K-SDR-Content derzeit nur sehr limitiert verbreitet, wenn man von einzelnen Sendungen auf Sky oder bei den Streamingdiensten wie Netflix einmal absieht“, sagt Gisbert Hochgürtel, Produktmanager Systemkameras bei Sony Deutschland. „Dementsprechend sind meiner Schätzung nach 95 % aller Dienstleister dazu gezwungen, in erster Linie ein vernünftiges HD-Bild zu liefern. Die meisten tun das, indem sie mit der entsprechenden Produktionsumgebung zunächst ein 4K-Signal erzeugen und es danach zu HD konvertieren. Der 4K-Content wird dann für Zweitauswertungen bereitgestellt oder eben auch nur archiviert.“
Bei der Produktion von 4K-Inhalten mit zusätzlicher High Dynamic Range gab es bislang kein Verfahren, das es den Dienstleistern erlaubt hätte, analog zur eben beschriebenen 4K-SDR-Produktion mit derselben technischen Ausstattung und demselben Personal gleichzeitig Bewegtbilder in 4K-HDR und HD-SDR bereitzustellen.
Die Umsetzung der Live-Produktion in 4K-HDR durch Vergrößerung der Produktionsteams sowie der Bereitstellung von zusätzlichem Equipment kommt wegen der hohen zusätzlichen Kosten höchstens theoretisch in Betracht. Denn niemand wird ernsthaft mit dem Gedanken spielen, seine Aus gaben für ein – wenngleich technisch hochwertiges – Zusatzprodukt mit zurzeit noch überschaubarer Reichweite mal eben zu verdoppeln.
Auch technische Komplikationen und fehlen de standardisierte Verfahrensabläufe stehen bei diesem Ansatz laut Gisbert Hochgürtel im Weg: „Wir haben eine Technologie entwickelt, die es Live-Dienstleistern ab sofort ermöglicht, live und simultan 4K-HDR-, 4K-SDR- sowie HD-SDR- und HD-HDR-Inhalte in einem einzigen integrierten Arbeitsprozess zu produzieren.“
Die meisten Produktionskameras verfügen inzwischen über einen weiten Dynamikbereich, der für HDR-Zwecke ausreicht. „Daher verlassen sich viele professionelle Anwender auf die 2015 von Sony eingeführte HDC-4300, die erste 2/3-Zoll-Kamera mit RGB-CMOS-Sensoren bei echter 4K-Auflösung. Unsere Erfahrung zeigt, dass diese Kamera sich schnell zum Defacto-Standard für Studio- und Sportproduktionen in 4K und HD entwickelt hat, sicher nicht zuletzt wegen ihrer Fähigkeit, neben HD- auch 4K-Signale sowohl in HDR als auch SDR herauszugeben“, erläutert Gisbert Hochgürtel.
Allerdings war für HDR-Zwecke in der Folge nach wie vor ein komplexer Nachbearbeitungsprozess notwendig, der für Live-Anwendungen bislang nicht zu leisten war. Der von Sony als bislang einzigem Anbieter vorgestellte Workflow für die simultane Erstellung von 4K-HDR- und HD-SDR-Content in Echtzeit bietet hier nun die bisher fehlende Lösung in der Live-Produktion.
Wirtschaftliche Vorteile durch Zeit- und Geldersparnis sind dabei nicht die einzigen Vorteile des Sony-Workflows. Auf der gestalterischen Seite lässt sich bei der gleichzeitigen Produktion von 4K-HDR und HD-SDR-Content über eine einzige Wertschöpfungskette auch der „Look“ des Bildes zwischen den verschiedenen Output-Signalen in den unterschiedlichen Qualitäten beibehalten.
Beispielsweise lässt sich die Helligkeit für die HDR- und SDR-Ausgangssignale über die von Sony entwickelte, SDR Gain benannte, Einstellungsfunktion im Kamerasystem manuell anpassen. SDR Gain nutzt die Verarbeitungsprozessoren in der Basisstation und ermöglicht somit die Anpassung zwischen den HDR und SDR-Signalwegen. Dabei wird dem 4K- und dem HD-Signal der jeweils erforderliche Helligkeitsbereich zugeordnet.
Notwendig ist dieser Vorgang wegen der unterschiedlichen Gamma-Kurven bei HDR und SDR. „Wenn ich zum Beispiel bei der Übertragung die korrekte Blende für mein SDR-Bild wähle, dann habe ich ein korrekt belichtetes SDR-Signal, aber mein HDR-Signal ist vom Bildeindruck her viel zu flach – da fehlt einfach der ‚Punch‘.
Wenn ich aber nun die Blende für das HDR-Bild einstelle, dann fressen im SDR-Bild die Lichter aus. Deshalb kann man mit der Funktion SDR Gain das Signal um maximal -18 dB, also maximal drei Blendenstufen, anpassen, so dass HDR und SDR beide korrekt belichtet sind“, beschreibt der Sony-Produktmanager das Verfahren.
Einer der wesentlichen Vorzüge für den verantwortlichen Bildtechniker ist dabei, dass er mit zuvor korrekt eingestelltem SDR Gain während der Übertragung künstlerische Anpassungen wie Painting, oder Shading vornehmen kann – und zwar während der laufenden Übertragung. Gleichzeitig bleibt das 4K-HDR-Signal das führende Produktionsformat, das am Ende der Produktionskette in alle HDR- und SDR-Formate, die für die finale Distribution benötigt werden, konvertiert werden kann. Die HD-SDR-Ausgangssignale der Basisstation werden dabei höchstens noch für operative Zwecke angepasst.
Für einen optimalen Bildeindruck empfiehlt Sony, die S-LOG3-Gammakurve als intermediäres Produktionsformat zur Erzeugung des HDR-Signals zu benutzen.
Die S-LOG3-Kurve ist im Laufe der Zeit sukzessive aus der bereits im Jahr 2000 eingeführten S-Log-Kurve entwickelt worden. Sie ist optimal an den Dynamik – umfang der CMOS-Sensoren angepasst und erlaubt es, bei der Aufnahme den maximal möglichen Kontrastumfang darzustellen. Dieser kann dann bei einer auf S-Log3 basierten Produktion über die gesamte Produktionskette bis hin zum Ausgang des Bildmischers zur finalen Übertragung weitergereicht werden.
Über die externe Signal-Konverterbox HDRC-4000 wird das Signal anschließend verlustfrei in das jeweils gewünschte Distributionsformat gewandelt. Mit dem HDRC-4000 kann nicht nur HDR in HDR, S-Log3 in HLG oder PQ und HDR in SDR umgewandelt werden, vielmehr ist darüber hinaus auch eine Rückumwandlung von 4KHDR in HD-SDR möglich.
Da sich in einem tatsächlichen Produktionsumfeld wahrscheinlich eine Vielzahl an Ausgangsmaterialien, -formaten und -geräten von verschiedenen Herstellern findet, müssen diese alle in 4K S-Log3 umgewandelt werden, bevor sie zur finalen Produktionsvorlage kommen.
Der besondere Vorteil des beschriebenen Workflows ist zweifellos die gleichzeitige Bereitstellung desselben Contents in Echtzeit sowohl in SDR als auch in HDR. Somit zielt er sicherlich zunächst einmal auf Live-Übertragungen im Broadcast-Bereich.
Es sind aber auch ohne weiteres In-House-Anwendungen denkbar, die sich die simultane Verfügbarkeit von verschiedenen Bildqualitäten zunutze machen – alleine dadurch, dass ein solcher Workflow nicht nur live ausgestrahlt, sondern auch beispielsweise in einer festen Studioumgebung aufgezeichnet werden kann.
Hier sind zahlreiche Anwendungen im Bereich von Schulung, Forschung und Lehre oder Medizin vorstellbar. Ohne Zeitverlust stehen während einer Aufzeichnung die unterschiedlichen Signale in SDR und HDR zur Verfügung und können anschließend an die passenden Empfänger weitergeleitet werden.
Selbst in einer reinen HD-SDR-Umgebung kann es durchaus Sinn ergeben, gleichzeitig eine 4K-HDR-Fassung zu produzieren: Diese kann im Archiv zur späteren Verwendung bereitgehalten werden bis die entsprechende HDR-Infrastruktur vorhanden ist und sich die Nachfrage nach passendendem Programminhalt entwickelt hat.
Denn ohne Content keine Nachfrage, aber ohne Nachfrage auch kein Content. Das ist das Paradox, dem sich jede Innovation mit dem Ziel eines besseren und realistischeren Seherlebnisses bei der Übertragung von Bewegtbild konfrontiert sieht. Wenn sich der hier vorgestellte Workflow zur gleichzeitigen Live-Produktion von HDR- und SDR-Content in der Praxis durchsetzt, könnte das dem Thema „HDR“ auch in anderen Bereichen weiteren Schwung verleihen.
Danke für die Informationen über 4K-HDR Content. Mein Bruder möchte von seiner Hochzeit ein 4K Video aufnehmen lassen. Gut zu wissen, dass sich 4K auch für live-Aufnahmen eignet.
Danke für die Informationen über 4K-HDR Content. Mein Bruder möchte von seiner Hochzeit ein 4K Video aufnehmen lassen. Gut zu wissen, dass sich 4K auch für live-Aufnahmen eignet.