High Dynamic Range: Was ist HDR und was können HDR-Monitore?
von Markus Tischner, Artikel aus dem Archiv
Was verbirgt sich hinter den drei Buchstaben HDR und warum bringen sie eine effektiv bessere Bildqualität? Full-HD, 4K, 8K – immer höhere Auflösungen lassen sich gut vermarkten, bringen aber oft nicht den erhofften Mehrwert. Mit HDR steht nun ein potenzieller Game-Changer vor der Haustür, der ein völlig neues Seherlebnis bringt.
Über den Daumen gepeilt kann man sagen, dass die Consumer-TV Premium-Serien der großen Hersteller mittlerweile alle die eine oder andere HDR-Technologie unterstützen. Im Pro-AV-Bereich dreht sich das Rad sehr viel langsamer. Das liegt jedoch nicht daran, dass man hier grundsätzlich behäbiger arbeiten würde. Der Grund liegt tiefer: Wenn man sich die Entwicklung von HDR genauer ansieht, stellt man fest, dass hier jede Menge neue Technologien geschaffen wurden und werden.
Bild: Samsung
Bild: Samsung
Die verschiedensten Hersteller sind in den letzten Jahren unterschiedliche Wege gegangen, um einen erhöhten Kontrastumfang – das HDR-Grundphänomen – auf den Bildschirm zu bringen. Und Organisationen wie die International Telecommunication Union (ITU) oder die Society of Motion Picture and Television Engineers (SMPTE) bemühen sich kontinuierlich, die unterschiedlichen Auswüchse zu bündeln und daraus übergreifende und verlässliche Standards zu machen. Diese sind in der ProAV-Branche einfach wichtiger, weil es hier nicht einfach nur darum geht, ein gesendetes Bild von einem Antennen-Anschluss auf das direkt nebenan hängende TV-Gerät zu bringen.
Installer müssen Bildsignale oft über sehr weite Strecken verteilen – mal gesplittet und auf unterschiedliche Ausgabegeräte verteilt und mal werden unterschiedliche Quellen zusammengemischt und in Digital-Signage-Systeme eingespeist. Oder es werden Teilbilder zu einer Gesamtprojektion zusammengerechnet. Hierzu braucht es eine Vielzahl an Komponenten, die alle die gleiche Sprache sprechen müssen.
Die im Vergleich zu den Consumer-TV-Produzenten eher kleinen Pro-AV-Hersteller müssen hier abwarten, bis sich verlässliche Standards entwickelt haben, weil sie nicht über so viele Ressourcen verfügen, um ständig Produkte für komplett neue Übertragungswege auf den Markt zu werfen. Hier liegt beim Thema HDR der Hase im Pfeffer: Zur Produktion, Übertragung und Darstellung von HDR-Bildern müssen verschiedenste Standards gleichzeitig beachtet werden. Und hier kommt es vor, dass in einem Standard neue Parameter definiert werden, für die dann ein anderer Standard ebenfalls angepasst werden muss. Dies führt im HDR-Bereich derzeit zu einer Entwicklungs-Spirale, dass einem manchmal geradezu schwindlig werden kann.
Viele weitere spannende Infos, Grundlagen, Tests und Projektberichte zu AV-Themen gibt es in unserem Newsletter. Jetzt anmelden!
Dynamische Metadaten
Beispiel gefällig? Wir haben bereits den Unterschied zwischen den beiden HDR-Technologien HDR10 und Dolby Vision beleuchtet. Beide haben zum Ziel, HDR-Bilder zu übertragen. Ein gewichtiger Unterschied zwischen HDR10 und Dolby Vision ist die Verarbeitung der Metadaten des Bildsignals. In den Metadaten wird zum Beispiel die Gammakurve der Bildausgabe festgelegt – also die spezifische Darstellung der unterschiedlichen Helligkeitswerte eines Bildes auf einem Monitor. Im HDR10-Standard wird die Gammakurve einmal für einen ganzen Film festgelegt – wir sprechen von statischen Metadaten.
Dolby Vision erlaubt es hingegen, dass beim Mastering des Films für jedes einzelne Bild eine eigene Gammakurve definiert werden kann – wir sprechen von dynamischen Metadaten. Dynamische Metadaten haben den Vorteil, dass bei Filmen mit sehr vielen Helligkeitswechseln die Darstellung der Helligkeitswerte besser auf die jeweilige Szenerie abgestimmt wird. Denn: Um eine sehr dunkle Szene perfekt wiederzugeben, ist es von Vorteil, eine andere Gammakurve anzulegen, als bei einer sehr hellen Szene.
Diesen Vorteil des proprietären Dolby-Vision-Standards lässt sich Dolby mit Lizenzgebühren von den Monitor-Herstellern gut bezahlen. Damit das offene, lizenzfreie HDR10 nicht als minderwertigeres System abgehängt wird, hat die HDR10-Szene reagiert. Im April dieses Jahres stellten Samsung und Amazon den HDR10+-Standard vor, der nun auch fähig ist, dynamische Metadaten zu übertragen.
Und jetzt kommen wir zurück zur oben genannten Standardisierungs-Problematik: Die Übertragung von HDR10+-Signalen ist nur über HDMI 2.1 möglich. Denn Geräte, die HDMI 2.0b unterstützen, können zwar HDR10 mit statischen Metadaten darstellen. Aber eine dynamische Übertragung von Metadaten ist nicht vorgesehen.
Während also HDMI 2.0 noch nicht einmal richtig etabliert ist, wird schon der nächste Standard definiert, der auf die nächste Generation setzt. Die HDMI 2.1-Spezifikationen wurden im Januar 2017 vom HDMI-Forum veröffentlicht, eine Übersicht findet sich im Kasten am Ende dieses Artikels.
Geräte mit HDMI 2.1 gibt es derzeit noch keine auf dem Markt. Nebenbei bemerkt: Mit einem Trick kann Dolby Vision bereits ab HDMI 1.4 dynamische Metadaten übertragen: Hier werden die Metadaten im Videostrom versteckt. Dabei gibt es aber wiederum Probleme, wenn das Signal über einen AV-Receiver an den Monitor gelangt. Denn diese bearbeiten das Signal meist in irgendeiner Form, was den proprietären Dolby Vision Videostrom korrumpiert.
Deshalb muss für AV-Receiver, die Dolby Vision korrekt darstellen sollen, ein Dolby Vision-Passthrough entwickelt werden. Der eine oder andere Hersteller hat dies bereits über Software-Updates gelöst. Wir sind jedoch noch weit entfernt von einer Plug&Play-Situation.
Wer also Dolby Vision Material über einen AV-Receiver präsentieren will, muss eine gute Produkt-Recherche vorschalten. HDMI 2.1 ist nur ein Standard, der für die Übertragung von HDR-Signalen von Bedeutung ist. Es ist der Übertragungsweg für die Signale. Damit die HDR-Bilder über diesen Weg korrekt auf einem Bildschirm dargestellt werden können, muss die Übertragung nach einer gewissen Logik stattfinden.
Die Regeln, nach denen Monitore Bildsignale interpretieren wird als Electro Optical Transfer Function (EOTF) bezeichnet. Der erste Standard zur Interpretation von HDR-Signalen war der von der Society of Motion Picture and Television Engineers (SMPTE) veröffentlichte SMPTE ST2084 – auch als Perceptual Quantizer (PQ)-Kurve bezeichnet. In der SMPTE ST2084 EOTF sind jedoch nur statische Metadaten zur Beschreibung der Bildsignale vorgesehen.
Für die Übertragung von dynamischen Metadaten mit HDR-Formaten wurde die neue EOTF SMPTE ST2094 ausgearbeitet. Hier ist festgelegt, wie HDR10+ oder Dolby Vision Signale interpretiert werden müssen. Während mit HDMI die Übertragung und mit den EOTFs die Interpretation der HDR-Signale definiert werden, geben die Empfehlungen der International Telecommunication Union (ITU) Leitlinien für den Gesamtprozess der Produktion und Distribution von HDR-Content.
Die Vorgaben der ITU dienen insbesondere für Broadcaster als technische Distributions-Bibel. Hier werden auch Parameter wie Bildschirmauflösungen, Frameraten, Farbtiefe oder Farbräume festgelegt. Außerdem wird hier beschrieben, mit welchen EOTFs die Bilder übertragen werden sollen.
Bandbreite: Bis zu 48 GB/s (neues 2.1 Kabel notwendig) – unterstützt Ethernet, rückwärts kompatibel zu früheren
HDMI-Versionen: Audio eARC (Enhanced Audio Return Channel) – Unterstützt moderne objektorientierte Audio-Formate wie Dolby Atmos
Gaming: Game-Modus VRR (Variable Refresh Rate) – ermöglicht Grafikkarten, das Bild im Moment des Renderings darzustellen, was eine flüssigere Darstellung erzeugt
In der ITU Rec. (von „recomondation“) 2020 wurde im Jahr 2012 das erste Mal die Distribution von UHD-TV beschrieben. Hier wurde auch der gleichnamige erweiterte Farbraum BT.2020 festgelegt, mit dem der erhöhte Kontrastumfang von HDR-Bildern überhaupt erst dargestellt werden konnte. Aufgrund der neuen Entwicklungen im HDR-Bereich hat die ITU im Juli 2016 die neue Empfehlung Rec.2100 herausgegeben.
Für den Broadcast-Bereich eine wichtige Entwicklung, beziehungsweise auch Rückbesinnung auf die Broadcast-Realitäten. Denn: Während Rec. 2020 nur noch 4K und 8K als Auflösung kannte, wird jetzt als Auflösung wieder 1080p aufgenommen – immer noch die am meisten verbreitete Bildschirmauflösung im Broadcast-Bereich! Und zum anderen wurde neben der PQ-Kurve auch noch eine zweite EOTF erlaubt, mit der ein Videosignal erzeugt wird, das gleichermaßen von SDR und HDR-Displays verstanden wird – das so genannte Hybrid Log Gamma (HLG). Im HLG sind SDR und HDR-Informationen in einem Videostrom vereint.
Aus diesem können sich SDR-Geräte die SDR-Information und HDR-Geräte die HDR-Information holen und darstellen. Dies hat den Vorteil, dass ein schlanker Stream erzeugt wird, der SDR und HDR gleichzeitig über den Äther schickt – ein Grundbedürfnis für Broadcaster. Denn die Transponder-Bandbreiten bei der Fernseh-Übertragung sind begrenzt. Praktisch ist, dass HLG mittlerweile in die HDMI 2.0b-Spezifikation aufgenommen wurde.
Das heißt, dass ein Display, das HDMI 2.0b unterstützt, auch HLG darstellen kann. Die Neuerungen der Rec. 2100 gegenüber der Rec. 2020 sind also die Basis dafür, dass überhaupt ein effektiver Broadcast-Workflow stattfinden kann. Und das in einer Zeit, in der es eine breite Durchmischung von SDR- und HDR-Geräten mit unterschiedlichen Auflösungen gibt – inklusive einer sehr hohen Anzahl von 1080p-Geräten.
Es ist wie einst, als digitale Fotokameras immer populärer wurden: Die Hersteller von Bildschirmen versuchen heute durch immer höhere Auflösungen Kaufanreize für neue Geräte zu schaffen. Haben sich die deutschen Haushalte und Unternehmen gerade erst mit Full-HD-Geräten eingedeckt, scheint es jetzt nicht mehr unter der vierfachen Full-HD-Auflösung 4K zu gehen. Und in Japan kommen bereits die ersten 8K-Panels auf den Markt – also 16-fache Full-HD-Auflösung!
Doch blickt man auf die Content-Seite wird ein drastisches Missverhältnis deutlich: Es gibt immer noch sehr wenig 4K-Inhalte, von 8K ganz zu schweigen. Deutsche Privatsender senden ein Full-HD Signal, während die Öffentlich-Rechtlichen in HD (1.280 × 720 Pixel) übertragen. Und vieles, was man heute auf Monitoren sieht, kommt sogar noch mit der guten alten PAL SD-Auflösung von 720 × 576 Pixeln daher – zum Beispiel auf DVD. Das ist nicht einmal ein Viertel der Full-HD Auflösung.
Wann wird ein Bild vom menschlichen Auge als angenehm empfunden? Die schiere Auflösung ist da nur ein Faktor. Und unser Sehvermögen hat hier seine Grenzen. Wer vor einem 50-Zoll Bildschirm weiter als 1,70 m entfernt sitzt, kann schon nicht mehr unterscheiden, ob es sich um ein Full-HD- oder nur ein HD-Bild handelt. Um den Unterschied zwischen einem 4K- und einem Full-HD-Bild auf einem 50-Zoll Bildschirm zu erkennen, muss man bereits auf 85 cm heranrücken!
Hoher Kontrastumfang
Neben der Auflösung gibt es verschiedene Parameter, die das Bildempfinden angenehmer machen. Bisher wenig beachtet in dieser Hinsicht ist die Darstellung höherer Kontrastumfänge. Man spricht hier von High Dynamic Range – kurz HDR. Aktuelle Bildschirme sind dagegen nur in der Lage, geringe Kontrastumfänge darzustellen – man spricht hier von Standard Dynamic Range oder SDR. Das menschliche Auge ist in der Lage, Kontrastumfänge von rund 1:1.000.000 zu erfassen. Auch sehr gute Displays schaffen das nicht annähernd. Deshalb nehmen wir Szenen in der Realität sehr viel brillanter wahr, als auf einem Monitor.
Mit der HDR-Technologie soll die Wiedergabe durch die Darstellung höherer Kontrastumfänge wesentlich brillanter und natürlicher werden. Die Marketing-Strategen tun sich jedoch noch schwer, HDR in der Breite zu vermitteln. Ein Grund dafür ist, dass man HDR nur versteht, wenn man es auf einem HDR-Panel gesehen hat. Es ist weder möglich ein HDR-Bild auf einem Monitor zu zeigen, der nicht in der Lage ist, hohe Kontrastumfänge darzustellen, noch es auf irgendeinem Printmedium abzubilden.
Alle Beschreibungen – auch in diesem Artikel – sind also nur Erklärungsversuche und Analogien für ein Phänomen, das nur mit einem neuen Ausgabegerät gezeigt werden kann. Um HDR wirklich zu verstehen, muss man es einfach gesehen haben. Ein anderer Grund für das bisherige Schattendasein von HDR mag sein, dass es oft mit Fotografien verwechselt wird, die mit der hier besprochenen HDR-Technologie bei Monitoren nichts zu tun hat.
In der Fotografie dient die HDR-Technik prinzipiell zwar auch dazu, höhere Kontrastumfänge abzubilden. Sie wird jedoch mit einem Trick erreicht. Wenn der Helligkeitsunterschied in einem Bild von den tiefsten Schatten bis in die gleißendsten Himmelspartien höher ist, als es der Kamerasensor darzustellen vermag, macht man ein Foto, in dem die Schatten korrekt belichtet sind, ein Foto, in dem die Mitten korrekt belichtet sind und ein Foto, in dem die Lichter korrekt belichtet sind.
Anschließend rechnet man die drei Aufnahmen zu einem Foto zusammen, das in allen Partien durchgezeichnet ist. Die dafür verwendete Software erlaubt meist neben der reinen Belichtungsfusion – die eine natürliche Wiedergabe mit hohem Kontrastumfang erzeugt – auch den kreativen Umgang mit verschiedenen Tonemapping-Parametern. HDR-Monitore haben dagegen gerade zum Ziel, Bildinhalte mit einem hohen Kontrastumfang so kontrastreich und farbentreu wiederzugeben, dass es der Wahrnehmung des menschlichen Auges nahekommt.
Wie erreicht man nun einen höheren Kontrastumfang auf einem Monitor? Entweder müssen die Lichter heller oder die Tiefen dunkler dargestellt werden – am besten beides gleichzeitig. Einheitliche Standards für HDR-fähige Monitore befinden sich derzeit erst im Entstehungsprozess. Einer davon ist UHD-Premium, der in erster Linie für Consumer-TV-Geräte konzipiert wurde. Er soll ein verlässliches, herstellerübergreifendes Label schaffen, das Kaufentscheidungen erleichtern soll. Erarbeitet hat dieses Label die UHD-Alliance, in der alle wichtigen Display-, aber auch Kamera-Hersteller und Filmstudios als Content-Produzenten vertreten sind.
Insgesamt gibt es vier UHD-Premium-Parameter für Displays, die bestimmte Werte erreichen müssen: 1. Da der Standard von der UHD-Alliance kommt, müssen die Bildschirme eine UHDAuflösung (3.820 × 2.160 Pixel) besitzen. 2. Die Farben müssen mit einer Bittiefe von 10 Bit dargestellt werden. Das bedeutet, dass das Display 1.024 Helligkeitsabstufungen je Farbkanal darstellen kann – im Gegensatz zu nur 256 Abstufungen bei der aktuell gängigen 8-Bit-Darstellung.
3. Das Panel muss den neuen Farbraum Rec.2020 verarbeiten können, der 2012 von der Internationalen Fernmeldeunion (ITU) als Standard für das Ultra High Definition Fernsehen (UHDTV) verabschiedet wurde. Dieser Farbraum umfasst rund drei Viertel aller Farben, die das menschliche Auge erfassen kann (76 %).
Im Vergleich: Der Farbraum Rec.709, mit dem aktuelle TV-Geräte HDTV-Signale oder Blu-ray-Filme darstellen, kann mit 35 % nur weniger als die Hälfte der Rec.2020-Farben darstellen. In der Praxis gibt es derzeit allerdings keine Geräte, die Rec.2020 komplett abbilden können. Dies wird zwar vielleicht nicht bis zum namensgebenden Jahr 2020 dauern. Aber einige Jahre wird man sich noch gedulden müssen, bis Rec.2020 auch vollständig dargestellt werden kann. Als Übergangsregelung vergibt die UHD-Alliance das UHD-Premium Label heute, wenn der Bildschirm mehr als 90 % des Farbraums DCI-P3 wiedergeben kann.
DCI-P3 ist ein Farbraum, der für digitale Filmprojektion entwickelt wurde. Er kommt auf 54 % der vom Menschen wahrnehmbaren Farben und ist damit ein Mittelweg zwischen Rec.709 und Rec.2020. 4. Beim Kontrastumfang gibt es zwei Möglichkeiten: Entweder werden Helligkeiten mit mehr als 1.000 Nit (Candela/m2 ) und ein Schwarzwert von weniger als 0,05 Nit erreicht – das entspricht einem Kontrastumfang von 1:20.000. Oder es werden Helligkeiten von mehr als 540 Nit und ein Schwarzwert von weniger als 0,0005 Nit erreicht – das entspricht einem Kontrastumfang von 1:1.080.000!
Diese zwei Varianten zielen direkt auf die unterschiedlichen Charakteristiken von LCD und OLED-Bildschirmen ab. Moderne LCD-Panels können einen sehr hohen Helligkeitswert erreichen. Während aktuelle herkömmliche TV-Geräte zwischen 100 und 300 Nit erreichen, haben UHD-LCD-Panels mit ihren mindestens 1.000 Nit ihre Stärken in der brillanten Darstellung auch in hellen Umgebungen. OLED-Panels sind im Vergleich zwar nicht so leuchtstark. Weil aber hier jedes Pixel einzeln leuchtet und keine allgemeine Hintergrundbeleuchtung vorhanden ist, punkten diese mit extremen Schwarzwerten. Bei einer schwächeren Umgebungsbeleuchtung empfinden wir ein OLED-Bild attraktiver und natürlicher, als bei einem HDR-LED-Panel, da der Kontrast – umfang hier wesentlich höher ist.
Damit man HDR-Inhalte auf einem UHD-Premium Display ansehen kann, genügt es nicht, einen HDR-fähigen Monitor zu kaufen. Vielmehr muss die gesamte Produktionskette auf HDR eingestellt sein. Das fängt bei der Aufnahme an. Moderne Videokameras sind schon seit einigen Jahren in der Lage, einen Motivkontrast von 15 Blendenstufen aufzunehmen – das entspricht einem Kontrastumfang von rund 1:32.000. Für die Wiedergabe von aktuellem SDR-Content auf SDR-Monitoren muss dieser hohe Kontrastumfang in der Postproduktion von 15 Blendenstufen auf nur sechs Blendenstufen „zusammengequetscht“ werden, weil der verwendete Farbraum Rec.709 nicht mehr wiedergegeben kann.
Dabei verliert das Bild an natürlicher Brillanz. Da wir auf Bildschirmen nichts anderes kennen, nehmen wir diesen Verlust gar nicht bewusst wahr und vermissen nichts. Erst der direkte Vergleich mit einem HDR-Monitor zeigt den immensen Unterschied. Mit HDR muss das Material nicht mehr künstlich beschnitten werden, sondern kann in seiner vollen Tiefe von der Kamera bis zum Ausgabegerät transportiert werden. Dazu muss es allerdings auf den richtigen Weg geschickt werden.
HDR-Filme können nur auf HDR-fähigen Medien auf HDR-fähigen Playern abgespielt werden. Und die Inhalte müssen über HDR-fähige Schnittstellen übertragen werden. Im letzten Jahr verabschiedete die Blu-Ray Disc Association die Spezifikation für die neue Ultra-HD Blu-ray. Mit diesem Format können 4K-Filme in HDR gespeichert werden. Damit der Film auch zum Monitor übertragen werden kann, benötigt der Player eine Schnittstelle wie HDMI 2.0a. Ab dieser Version erfüllt es die Spezifikationen des CEA-861.3- Standards der Consumer Electronics Association (CEA), in der die Bedingungen für die Übertragung von HDR-Inhalten festgelegt sind. Entspricht auch nur ein Glied der Produktionskette nicht diesen Standards, werden die Inhalte auch nicht in HDR dargestellt. Und genau vor diesem Problem steht man, wenn man jemandem das Phänomen HDR erklären will und man gerade keine durchgehende HDR-Produktionskette zur Hand hat.
Wer jetzt glaubt, es seien alle technischen Spezifikationen für HDR-Inhalte genannt, der täuscht sich jedoch. Vieles ist noch im Fluss. Und: neben den blanken Eckpunkten wie Farbraum, Bittiefe oder Kontrastumfang muss auch das Distributionsformat von der Quelle zum Ausgabegerät von allen Komponenten unterstützt werden. Und hier könnte sich ein ähnlicher Formatkrieg wie zwischen HD-DVD und Blu-ray oder seinerzeit zwischen VHS und Betamax ankündigen.
Im Wesentlichen sind heute zwei Formate im Wettstreit: HDR10 – ein offener Standard, der auch von der UHD-Alliance unterstützt wird, und Dolby Vision – ein proprietärer Standard der Dolby Laboratories. HDR10 hat eine Bittiefe von 10 Bit, wie es auch vom UHD-Premium Label gefordert wird. Da zudem die neuen Ultra-HD Blu-rays in HDR10 gemastert werden, könnte es sein, dass Hohe und niedrige Bittiefe im Vergleich sich HDR10 zum neuen Standard entwickelt. Sony und Samsung setzen ebenfalls auf das HDR10-Format.
Dolby Vision ist 12-Bit-fähig und kann damit rund 4.000 Helligkeitsabstufungen darstellen, im Vergleich zu den „nur“ 1.000 von HDR 10. Das bringt gleichzeitig eine noch höhere Farbgenauigkeit als HDR10. Außerdem können hier durch dynamische Metadaten die Bildinformationen framegenau auf das Ausgabegerät abgestimmt werden. Der Dolby Vision Content stimmt sich sozusagen mit dem Monitor ab, wie er hardwareseitig bestmöglich dargestellt werden kann. Bei den statischen Metadaten von HDR10 wird bereits beim Mastering festgelegt, wie die Inhalte dargestellt werden sollen – unabhängig von den hardwareseitigen Möglichkeiten des Monitors.
Ein weiterer Pluspunkt von Dolby Vision: Man kann mit entsprechenden Bildschirmen Helligkeiten von bis zu 10.000 Nit darstellen. Das schafft zwar heute noch kein Display. Aber Dolby Vision ist damit für die Zukunft vorbereitet, so dass der Standard auch über längere Zeit up to date bleiben kann. Um Dolby Vision wiederzugeben, muss ein Display einen Dolby Vision Decoder eingebaut haben und der Hersteller muss zusätzlich Lizenzgebühren an Dolby entrichten. Die Hersteller, die Dolby folgen, nehmen dies auf sich, weil Dolby Vision noch höhere Maßstäbe an die Bildqualität ansetzt als HDR10.
Ob Dolby Vision oder HDR10 das Rennen macht, ist derzeit noch nicht abzusehen. Es kann passieren, dass eines der beiden Formate das andere verdrängt. Es könnte aber auch sein, dass beide Formate koexistieren, wie es auch bei den Mobil-Betriebs-Systemen Android und iOS der Fall ist. Hersteller wie LG, Philips und TCL werden beide Formate unterstützen. Ebenso wie die Streaminganbieter Netflix und Amazon. In Anbetracht der Tatsache, dass Dolby Vision Content auch zu HDR10 kompatibel ist und die Ultra-HD Blu-ray auf HDR10 basiert, hat man derzeit mit einem HDR10-fähigen Panel die sehr viel größere Auswahl an HDR-Content. Wer Wert auf die bestmögliche Darstellung legt, greift zu Dolby Vision.
Was könnte man als Fazit zum aktuellen Stand der HDR-Entwicklung sagen? Momentan sieht es danach aus, als ob die Standardisierung im HDR-Bereich langsam auf die Zielgerade kommt. Die Rec. 2100 gibt den HDR-Standard für die Broadcast-Branche vor. Mit HLG ist ein Broadcast-Format definiert, das längerfristig aktuell bleiben kann und ab HDMI 2.0b unterstützt wird. SMPTE 2094 liefert die Vorgaben für die Interpretation der dynamischen Metadaten von HDR10+ und Dolby Vision.
HDMI 2.1 wird der neue Übertragungsweg, der ebenfalls mit dynamischen Metadaten umgehen kann. Es bleibt noch abzuwarten, ob sich HDR10+ oder Dolby Vision als HDR-Format für Film-Produzenten und Streaming-Anbieter durchsetzt. Der Vorteil der dynamischen Metadaten, den Dolby Vision gegenüber HDR10 hatte, ist mit HDR10+ dahin. Als Vorteil von Dolby Vision bleibt die erweiterte Farbtiefe von 12 Bit – gegenüber 10 Bit von HDR10+. Dafür ist HDR10+ nach wie vor offen und Lizenzfrei. Wie jedoch das „Nachrüsten“ von HDR10 mit dynamischen Metadaten zu HDR10+ zeigt, ist die Dynamik der HDR Entwicklungen noch sehr hoch.
Allgemein stellt man fest, dass HDR vor allem im Consumerbereich gepusht wird. Das größere Marktpotenzial erlaubt es, größere und schnellere Schritte zu machen. Der Pro-Markt ist hier deutlich zurückhaltender und konservativer. Doch man darf das Thema nicht unterschätzen. Gerade jetzt kann man im Digital-Signage Bereich mit den extrem brillanten HDR-Bildern noch einen besonderen Blickfang schaffen und sich von der Konkurrenz abheben.
Und auch in Bereichen, wo es auf höchste Detailtreue ankommt, sind Wiedergaben, die einen sehr hohen Kontrastumfang darstellen können, ein echter Gewinn. Man denke nur an die Medizintechnik, wo es bei Röntgenbildern oftmals darauf ankommt, auch die allerkleinsten Strukturen zu erkennen. Auch Simulationen profitieren von einer HDR-Darstellung, weil das gesamte Erlebnis noch immersiver und damit echter wirkt.
Dolby Vision ist mein Favorit. Schade das die Teile soviel kosten. Aber so ist das nunmal, ständig kommen auch neue Geräte. Aber dieses Jahr noch kommt mir ein Dolby Vision System von LG ins Haus. Punkt aus ende.
Mich würde besonders im Bezug zum PS4 Pro launch interessieren, welche Monitore bis dahin zwischen 24 und 28 Zoll verfügbar sein werden. Meine Recherche ergab bis dato leider eher Verwirrung als Klarheit.
Hallo und HILFE….
Man hat mir den SAMSUNG LU28E590DS/EN 28 Zoll UHD 4K verkauft und gesagt, dass die PS4 Pro damit läuft.
tut sie auch nur HDR und HDCP 2.2 wird nicht unterstützt. Kann ich das druch ein Adapter änder ich hatte gehört das das HDCP 1.4, was ich habe so auf 2.2 hochgezogen werden kann aber was ist das mit dem HDR?
Bitte helft mir… ich bin echt verzweifelt weil ich extra einen Monitor gewählt habe wegen der kurzen reaktionszeit von 1 ms.
Im 3. Quartal dieses Jahres sollen Acer und Asus die ersten HDR fähigen Gamingmonitore veröffentlichen. Die sollen aber an die €2000 kosten und haben dann nur 27″. Ich möchte mir demnächst aber einen 21:9 Monitor anschaffen, die Frage ist ob es sich bei diesen Geräten lohnt auf HDR zu warten. Ich befürchte das die ersten Modelle wohl erst 2019 erscheinen dürften. Hat dazu wer Infos?
hdr 10 sieht mir einfach nur nach einer höheren farbsättigung aus.. wie ich es bei meinem normalen 4k monitor auch machen kann. nur problem beim erhöhen des sättigungs ist das schwarze konturen schwarz bleiben auf nem schwarzen hintergrund, auch wenn etwas rot auf rot ist ist dies kaum mehr zu erkennen, vll ist das ja beim hdr nicht so.
Dolby Vision ist mein Favorit. Schade das die Teile soviel kosten. Aber so ist das nunmal, ständig kommen auch neue Geräte. Aber dieses Jahr noch kommt mir ein Dolby Vision System von LG ins Haus. Punkt aus ende.
Der 49UH770V ist einer der günstigsten TV die Dolby Vision unterstützen.
In der Medizientechnik sind die “Standards” andere als im consumerbereich. Hier gehören aufnahmen >1024 graustufen zur normalität.
Krasser Artikel. Besser als so manche wissenschaftliche Hausarbeit
Wann kommen denn die 4K HDR Monitore auf den Markt? Ich brauche nämlich bis November einen in 28 oder 32 Zoll.
Hallo Marco,für welche Anwendung wird der Monitor benötigt? Grüße aus der Redaktion!
PS4 Pro
@Marco: es gibt die schon: Dell UP3216Q und ASUS PA329Q, zum Beispiel, sind 4K Monitore mit 10 bit Farbtiefe, HDMI 2.0 und HDCP 2.2
Mich würde besonders im Bezug zum PS4 Pro launch interessieren, welche Monitore bis dahin zwischen 24 und 28 Zoll verfügbar sein werden. Meine Recherche ergab bis dato leider eher Verwirrung als Klarheit.
Hallo und HILFE….
Man hat mir den SAMSUNG LU28E590DS/EN 28 Zoll UHD 4K verkauft und gesagt, dass die PS4 Pro damit läuft.
tut sie auch nur HDR und HDCP 2.2 wird nicht unterstützt. Kann ich das druch ein Adapter änder ich hatte gehört das das HDCP 1.4, was ich habe so auf 2.2 hochgezogen werden kann aber was ist das mit dem HDR?
Bitte helft mir… ich bin echt verzweifelt weil ich extra einen Monitor gewählt habe wegen der kurzen reaktionszeit von 1 ms.
Es gibt noch keinen Monitor der HDR kann. Samsung hat letztens 2 Modelle vorgestellt die 2017 erscheinen werden.
Im 3. Quartal dieses Jahres sollen Acer und Asus die ersten HDR fähigen Gamingmonitore veröffentlichen. Die sollen aber an die €2000 kosten und haben dann nur 27″. Ich möchte mir demnächst aber einen 21:9 Monitor anschaffen, die Frage ist ob es sich bei diesen Geräten lohnt auf HDR zu warten. Ich befürchte das die ersten Modelle wohl erst 2019 erscheinen dürften. Hat dazu wer Infos?
hdr 10 sieht mir einfach nur nach einer höheren farbsättigung aus.. wie ich es bei meinem normalen 4k monitor auch machen kann. nur problem beim erhöhen des sättigungs ist das schwarze konturen schwarz bleiben auf nem schwarzen hintergrund, auch wenn etwas rot auf rot ist ist dies kaum mehr zu erkennen, vll ist das ja beim hdr nicht so.
Was sagt ihr zu den LG HDR / Ultra Wide Modellen? Wie zb. 35WN75C ? Und auch generell zur Übertragung mittels USB-C?