Komprimierung: Datenraten und Videocodecs

0
314
Anzeige

Effiziente Schrumpfkur

Komprimierung ist im digitalen Zeitalter obligatorisch, schließlich wollen Transponder aufgeteilt und Bandbreiten effizient genutzt werden. Wir zeigen Ihnen, was sich hinter Datenraten und Videocodecs verbirgt und ab wann ein Bild richtig gut aussieht.

Kaum zu glauben: Ein Videosignal in Standardauflösung mit vollen Helligkeits- und Farbwerten (Luminanz und Chrominanz 4 : 4 : 4) und 50 Vollbildern die Sekunde würde exorbitante 648 Megabit pro Sekunde (MBit/s) einfordern. Über Satellit ausgestrahlte digitale SD-Sender weisen in der Regel lediglich Datenraten zwischen fünf und sieben Megabit pro Sekunde auf. Der Leitsatz dabei heißt: Bandbreitenreduzierung durch Datenreduktion.

Eingedampft

Bei der Fernsehübertragung halbiert das Halbbildverfahren die Datenrate auf 324 MBit/s und durch eine Unterabtastung von Luminanz und Chrominanz schrumpft der Wert auf 25 MBit/s. Danach greift der Videocodec ein. Würde ein Schwarzbild mit 1 920 × 1 080 Pixeln übertragen, genügt es, einmal „Schwarz“ und einmal „alle Bildpunkte“ zu senden. Es wäre also redundant, 2 073 600 schwarze Bildpunkte zu übertragen.
 
Mittels Redundanzreduktion kann Videomaterial bereits um etwa 50 Prozent verkleinert werden. Dabei spielt die Entropie eine große Rolle, die ein Maß für den mittleren Informationsgehalt eines Zeichensystems ist. So werden in unserer Sprache alle Buchstaben des Alphabets gebraucht, aber die Häufigkeit der Verwendung einzelner Buchstaben ist ungleichmäßig, was wiederum zu Redundanz führt. Je kleiner die Auftrittswahrscheinlichkeit eines Zeichens ist, desto höher ist seine Information.
 
Andersherum ist die Information eines Zeichens gering, wenn es oft vorkommt. Nun entscheidet die Entropie, wie viele Bits optimal sind, um ein Zeichen einer gegebenen Wahrscheinlichkeit zuzuordnen. So werden häufig genutzte Symbole mit einem kurzen Bitstream beschrieben und damit wird weniger Speicher respektive Bandbreite verbraucht. Um dies zu erreichen, arbeitet der Videocodec mit einer Vorhersage, vergleicht benachbarte Bildpunkte und bildet dann eine Differenz.
 
Dies geschieht über eine Bewegungseinschätzung, die Bilder in einem Zwischenspeicher ablegt, Bewegungen vergleicht, kompensiert und eben einschätzt. Für eine effiziente Verarbeitung wird das Bild in Blöcke mit jeweils acht mal acht Bildpunkten zerlegt. Diese werden dann analysiert und im späteren Verlauf ergibt sich eine sogenannte Group of Pictures (GoP), die I-, P- und B-Bilder enthält.
 
I-Bilder sind Intraframes ohne Bewegungsvektoren; in ihnen schlummern immer alle Bildinformationen (JPEG-Bild). P-Bilder enthalten Bewegungsvektoren aus dem Vergleich mit dem vorhergehenden Bild und B-Bilder aus dem vorhergehenden und dem nachfolgenden.

Rekonstruktion

Die GoP-Struktur wird dann in einer bestimmten Reihenfolge (I, P, B, B, P) übertragen, sodass sich die einzelnen Bilder voneinander ableiten – und fertig ist der komprimierte Videostrom. Heutzutage ist MPEG-4 AVC (H.264) das Maß der Dinge. Der Videocodec kommt neben der Bluray Disc auch bei der HDTV-Übertragung zum Einsatz. Er ist äußerst potent und absolut zukunftstauglich, denn die Spezifikationen lassen eine Weiterentwicklung des Encoders zu.
 
Das heißt, so lange der Bitstrom von den Endgeräten decodiert werden kann, ist eine Optimierung des Encoders möglich, was sich in geringerem Datenaufwand bei gleichbleibender Bildqualität äußert. Dabei ist H.264 etwa zehnmal komplexer als der MPEG-2-Codec der DVD und die Decodierung ist ungefähr dreimal aufwendiger. Seit MPEG-2 ist aber auch die Rechenleistung um ein Vielfaches gestiegen.

Argusaugen

Um das Verhältnis von Datenrate und Bildqualität beurteilen zu können, trafen wir einige Vorbereitungen: In einem Sehtest projizierten wir im verlagseigenen Heimkino entweder einen Film in Blu-ray-Qualität oder eine extrem komprimierte Version des Films. Aufgrund der Großbildprojektion wird natürlich jeder Codierungsfehler (Artefakte und Unschärfen) enttarnt. Unsere erfahrenen Testredakteure mussten nun einschätzen, welches Bild von der Blu-ray stammt und welches noch mal durch einen Encoder geschickt wurde.
 
Bei der erneuten Encodierung wurde die zu dem Zeitpunkt aktuellste H.264-Encoder-Bibliothek (x264 core 88 r1462) genutzt. Als Exempel haben wir uns für „Harry Potter und der Halbblutprinz“ entschieden, da der Film sich aufgrund kaum schwankender Helligkeitswerte und eines extrem sauberen Bildes optimal codieren lässt. Auf der Blu-ray Disc liegt der reine Videostrom mit 18 MBit/s und einer Größe von knapp 19 Gigabyte (GB) vor.
 
Mit unserer Codierung kamen wir auf rund vier Megabit pro Sekunde und vier Gigabyte, bei (nahezu) gleichbleibender Qualität. Das Zauberwort hierbei lautet CRF. Dabei handelt es sich um einen Quality-based-Ansatz mit variabler Datenrate (VBR). Die Qualität wird dabei mit Werten zwischen null und 51 angegeben, wobei null für eine verlustfreie Codierung (lossless) steht und die höchste Datenrate aufweist. Im Test erwies sich ein CRF-Wert von 20 als bester Kompromiss zwischen Bildqualität und Datenrate.

Sehen und stauen

In unserem Testaufbau setzten wir unseren Redakteuren die 4-GB-Versionvor, was diese natürlich nicht wussten und 50 Prozent hielten sie fürdie Blu-ray. Am Ende waren wir beeindruckt, wie mächtig der H.264-Codecist und was für geringe Datenraten bei Full-HD-Material (1 920 × 1 080Pixel) heutzutage ausreichen, um ein qualitativ hochwertiges Bilddarzustellen. Wir sind uns aber auch einig, dass man das letzteQuäntchen Schärfe nur auf der Blu-ray zu sehen bekommt, denn eine zustarke Komprimierung bildet nicht nur Artefakte, sondern schluckt auchfeine Details.

(Dennis Schirrmacher)

Kommentare im Forum