Was ist HDR und welche Standards gibt es?
HDR (High Dynamic Range) hat die Bildqualität in Fernsehen, Gaming und Streaming revolutioniert. Der Grund dafür liegt im hohen Kontrast, der größeren Farbpalette und der verbesserten Helligkeitswiedergabe. Im Vergleich zu SDR (Standard Dynamic Range) bietet HDR tiefere Schwarztöne, hellere Spitzlichter und eine natürlichere Farbdarstellung. Dadurch wirken Bilder realistischer und lebendiger.
Technisch wird das durch die sogenannte EOTF (Electro-Optical Transfer Function) ermöglicht, die das Eingangssignal (etwa vom Blu-ray-Player oder Streaming-Dienst) in die Helligkeits- und Farbdarstellung auf dem Display umwandelt. SDR setzte dafür jahrzehntelang auf eine statische Gammakurve. HDR hingegen erweitert das Darstellungsvermögen, indem die EOTF – wie etwa beim PQ-Verfahren – deutlich höhere und feinere Helligkeitsstufen unterstützt.
Es gibt jedoch verschiedene HDR-Formate, die sich in ihrer technischen Umsetzung und Qualität unterscheiden.
HDR10 ist ein weit verbreiteter, offener Standard. Dolby Vision und HDR10+ setzen hingegen auf dynamische Metadaten, die das Bild je nach Szene optimieren. HLG ist speziell für TV-Übertragungen entwickelt worden. PQ wiederum bildet die technische Grundlage vieler HDR-Technologien.
Neben der unterschiedlichen Metadatenverarbeitung und EOTF spielt auch die mögliche maximale Leuchtdichte eine große Rolle. Manche Displays erreichen nur rund 400 Nits, andere mehr als 2.000 Nits, wodurch der sichtbare HDR-Effekt variiert. Darüber hinaus definiert jeder HDR-Standard bestimmte Farbräume (wie Rec. 2020 oder DCI-P3), in denen die Inhalte gemastert werden.
Dieser Artikel zeigt die wichtigsten Unterschiede zwischen den HDR-Formaten und beschreibt ihre jeweiligen Einsatzbereiche.
HDR10 – Der offene Standard
HDR10, auch “generisches HDR” genannt, ist eines der am häufigsten genutzten HDR-Formate. Es wird von fast allen modernen Fernsehern, Monitoren und Streaming-Diensten unterstützt.
Technisch basiert es auf einer 10-Bit-Farbtiefe. Dadurch kann es eine deutlich größere Farbpalette als SDR darstellen. Die maximale Helligkeit reicht je nach Gerät von 1000 bis 4000 Nits, wodurch auch der hellste Bereich eines Bildes klar und deutlich dargestellt wird.
Die zugrunde liegende EOTF bei HDR10 ist die PQ-Kurve (SMPTE ST 2084). HDR10 nutzt außerdem definierte statische Metadaten (SMPTE ST 2086), die Informationen über das Mastering-Display und dessen Spitzenhelligkeit (MaxCLL und MaxFALL) enthalten.
Diese statische Metadaten sind ein Nachteil von HDR10, denn sie legen die Helligkeitswerte für das gesamte Video fest. Das kann dazu führen, dass besonders helle oder dunkle Szenen nicht optimal dargestellt werden. In solchen Fällen ist die Bildqualität möglicherweise nicht so präzise wie bei anderen Formaten.
Zudem kann es passieren, dass das Abspielgerät bei stark variierenden Szenenkompositionen Kompromisse eingeht. Es muss das gesamte Material auf ein einziges dynamisches Spektrum anpassen, das im Mastering vorgegeben ist.
Dolby Vision – Dynamische Bildanpassung für höchste Qualität
Dolby Vision ist eine Weiterentwicklung von HDR10 und bietet eine bessere Bildqualität. Es nutzt dynamische Metadaten, um Helligkeit und Kontrast je nach Szene oder Bild individuell anzupassen. Dadurch wird das Bild stets optimal dargestellt.
Die dynamischen Metadaten werden bei Dolby Vision in einem separaten Datenstrom gespeichert, der dem Endgerät genaue Anweisungen zur optimalen Darstellung liefert. Dieser Prozess wird oft als „scene by scene“ oder gar „frame by frame“ Tone-Mapping bezeichnet.
Ein weiterer Vorteil von Dolby Vision ist die Unterstützung einer Farbtiefe von bis zu 12 Bit. Dadurch sind feinere Farbnuancen möglich.
Darüber hinaus unterstützt Dolby Vision festgelegte Mastering-Peaks von bis zu 10.000 Nits, sodass Inhalte zukünftiger Displays mit höherer Leuchtdichte bereits heute in Dolby Vision gemastert werden können. Aktuelle Geräte passen das Signal in Echtzeit an ihre maximal mögliche Helligkeit an.
Allerdings handelt es sich um ein lizenzpflichtiges Format. Hersteller müssen eine Gebühr an Dolby zahlen, um es in ihre Geräte zu integrieren. Aus diesem Grund ist es nicht überall verfügbar.
HDR10+ – Die lizenzfreie Alternative zu Dolby Vision
HDR10+ wurde als Antwort auf Dolby Vision entwickelt. Es nutzt ebenfalls dynamische Metadaten, ist jedoch lizenzfrei. Dadurch ist es für Hersteller günstiger und leichter in ihre Geräte zu integrieren.
Auch HDR10+ passt Helligkeit und Kontrast je nach Szene an, um eine optimale Darstellung zu gewährleisten. Allerdings ist die Farbtiefe auf 10 Bit begrenzt. Dadurch erreicht es nicht ganz die Farbpräzision von Dolby Vision. Trotzdem gewinnt HDR10+ zunehmend an Bedeutung, insbesondere bei Herstellern wie Samsung und Panasonic.
Technisch basiert HDR10+ wie HDR10 auf dem PQ-Transfer und verwendet ähnlich wie Dolby Vision einen zusätzlichen Datenstrom, der die dynamischen Metadaten überträgt. Diese Metadaten werden vom Player oder vom TV/Monitor ausgewertet, um das Tone-Mapping an die jeweilige Szene anzupassen. Es konkurriert direkt mit Dolby Vision, profitiert jedoch von der höheren Offenheit und geringeren Kosten.
HLG (Hybrid Log Gamma) – Das Broadcast-HDR
HLG wurde speziell für TV-Übertragungen entwickelt. Es unterscheidet sich technisch deutlich von den anderen HDR-Formaten, da es ohne Metadaten auskommt. Dadurch ist es besonders kompatibel mit älteren SDR-Displays. Diese können HLG-Signale in einer abgeschwächten Form wiedergeben.
Ein weiterer Vorteil von HLG ist seine effiziente Datenverarbeitung. Es benötigt weniger Speicherplatz und Bandbreite als andere HDR-Formate. Dadurch eignet es sich besonders für Live-Übertragungen, bei denen eine präzise Darstellung von HDR-Bildern essenziell ist.
HLG setzt auf eine Kombination aus einer traditionellen Gammakurve im unteren Helligkeitsbereich und einer logarithmischen Kurve im oberen Bereich. Das ermöglicht die Rückwärtskompatibilität: Ein SDR-Fernseher interpretiert nur den „Gamma-Teil“, während ein HLG-fähiges HDR-Display auch den „Log-Teil“ korrekt auswertet und damit den erweiterten Dynamikbereich zeigt.
Im Heimkino-Bereich spielt es jedoch eine eher untergeordnete Rolle. Dennoch bieten einige TV-Hersteller und Streaming-Dienste bereits HLG-Unterstützung, da viele Rundfunkanstalten – darunter die BBC oder NHK – auf dieses Format setzen.
PQ (Perceptual Quantizer) – Kein Format, sondern eine Grundlage
Viele glauben fälschlicherweise, dass PQ ein eigenständiges HDR-Format ist – doch das ist ein Mythos. Tatsächlich handelt es sich um eine Signalverarbeitungstechnologie, die als Basis für zahlreiche HDR-Formate dient, darunter die oben beschriebenen HDR10, HDR10+ und Dolby Vision.
PQ ist also eher mit HLG vergleichbar. Die Unterschiede sind allerdings beträchtlich. Während PQ (Perceptual Quantizer) auf eine feste Gammakurve setzt und für die Wiedergabe auf Displays mit definierten Helligkeitsstufen optimiert ist, verwendet HLG (Hybrid Log-Gamma) eine dynamische Gammakurve. Diese ermöglicht eine rückwärtskompatible Darstellung auf SDR- und HDR-Displays, ohne dass eine separate Metadatenübertragung erforderlich ist.
Beim PQ-Verfahren wird das menschliche Sehempfinden simuliert: Statt linearer Abstufungen wird in dunklen Bereichen feiner quantisiert als in hellen, um wahrnehmungspsychologische Vorteile zu nutzen. Dadurch ergeben sich deutlich mehr Nuancen, insbesondere in den Schatten- und Spitzenlicht-Bereichen.
PQ wurde von Dolby entwickelt und von der SMPTE (SMPTE ST 2084) standardisiert. Es ermöglicht eine genauere Darstellung von Helligkeitswerten als frühere Gammakurven. Der PQ-Standard kann Helligkeitswerte von bis zu 10.000 Nits verarbeiten.
In der Praxis liegen die aktuellen Spitzenhelligkeiten der meisten Consumer-Displays zwar deutlich niedriger, aber der PQ-Standard ist auf zukünftige Gerätegenerationen vorbereitet. So kann bereits heute Material produziert werden, das später auch auf deutlich helleren Displays konsistent dargestellt werden kann.