Workshop: Weniger Latenzen bei Live-Online-Videos

Verschiedene Vorgehensweisen je nach Anspruch an die Übertragung

1
186
© kentoh - stock.adobe.com
Anzeige

Online ausgestrahltes Live-Fernsehen hat hohe Ansprüche bei der Vermeidung von Latenzen. Das Ende einer Sendung sollte der Online-Zuschauer nicht von anderen Social-Media-Nutzern vor dem Bildschirm erfahren. Hier eignen sich verschiedene Ansätze, um die Verschiebungen der Signal-Übertragung beim Online-TV im Vergleich zum normalen Fernsehen zu minimieren.

Gerade Live-Veranstaltungen im Sport- und Entertainmentbereich wie der Super Bowl, die Fußball-WM oder der Eurovision Songcontest profitieren vom Spannungsmoment des nicht vorhersagbaren Ausgangs. Das macht sie besonders lukrativ für Online-Media-Anbieter. Doch schon eine durchschnittliche Verzögerung des Online-Streams um 30 Sekunden im Vergleich zum normalen Fernsehprogramm, kann sich verheerend auswirken. So ist es zum Beispiel überaus ärgerlich, wenn ein Fußballfan den Spieler seiner Mannschaft auf dem Handy zum Elfmeter anlaufen sieht, aber von Fernsehzuschauern über Social-Media-Kommentare erfährt, dass der Ball ins Tor ging. Gleiches gilt für Zuschauer, die beim Public Viewing über das Internet-TV auf der Restaurantterrasse bereits durch die Reaktionen im Innenbereich das Ergebnis eines Dribblings kennen. Solche Szenarien zerstören den Spannungs-Effekt von Live-Übertragungen.

Online-Live-TV hat aufgrund dieser langsameren Signalübermittlung gegenüber dem klassischen Fernsehen eine geringere Akzeptanz unter den Zuschauern. Jeder zweite Zuschauer in Deutschland würde sich laut dem Limelight Networks State of Online Video 2019 Report mehr Live-Sport online ansehen, unter der Voraussetzung, dass die Ausstrahlung nicht langsamer als das herkömmliche TV-Programm wäre. Live-Veranstaltungen, die noch mehr von Interaktionen mit den Zuschauern leben, wie etwa Online-Gaming-Events, Auktionen oder Quizsendungen, können eine zu langsame Ausstrahlung der nächsten Online-Video-Sequenz nicht dulden. Sie erfordern außerdem eine schnelle Rücksendung der Signale.

Es benötigt eine gewisse Zeit, bis ein Live-Video verarbeitet und über das Netzwerk ans Endgerät der Nutzer ausgespielt ist. Das liegt vor allem an dem Internetprotokoll HTTP TCP/IP. Dieses war ursprünglich nicht für die Internet-Ausstrahlung von Video-Inhalten gedacht. Kameravideos zu verschlüsseln und auf einem Online-Player oder OTT-Gerät bereitzustellen, benötigt Zeit. Die Differenz zwischen Aussenden des Signals bis zum finalen Abspielen auf dem Endgerät wird als Live-Streaming-Latenz bezeichnet. Um diese Latenzzeit so gering wie möglich zu halten, gibt es verschiedene Optionen. Die passende Methode variiert je nach ausgespieltem Inhalt und den spezifischen Anforderungen. 

Abhilfe 1: Chunks kürzen

Durch die Anpassung der Chunk-Größen lässt sich die Speicherlast bei der Übertragung an die Endgeräte minimieren. Das sieht wie folgt aus: Ein Player speichert vor jeder Video-Wiedergabe über das HTTP-TCP/IP-Protokoll drei vom Kodierer erstellte Videosegmente – sogenannte Chunks – im Puffer zwischen. Das benötigt Zeit. Bei einer Chunk-Länge von 10 Sekunden speichert das Endgerät 30 Sekunden Video-Material zwischen. Verringert man die Länge auf sechs Sekunden, sind es nur noch 18 Sekunden, die es vorab zu speichern gilt. Die verkleinerten Videosegmente erhöhen also die Übertragungsrate. Sind die Chunks auf bis zu eine Sekunde reduziert, lässt sich eine End-to-End-Latenz von nur 6 Sekunden erreichen. Dabei werden gängige HTTP-Chunked-Protokolle wie HLS und MPEG-DASH unterstützt. Diese Vorgehensweise kommt häufig zum Einsatz, wenn die Übertragung keine Echtzeit-Ausspielung der Signale oder Interaktivität erfordert. Doch kommt auch sie an ihre Grenzen, denn zu stark verminderte Chunks können ein wiederholtes Zwischenspeichern durch den Player erfordern, wenn der Datenstrom unterbrochen wurde oder der Puffer leer ist. Daher sollte jeder Workflow entsprechend getestet werden. 

Abbhilfe 2: CMAF-Verschlüsselung

Ebenfalls für eine Beschleunigung bei der Darstellung der Signale auf dem Player sorgt das Common Media Application Format (CMAF). Es kommt ein einheitlicher Rahmen zum Einsatz, um die Videodaten in HLS und MPEG-DASH zu speichern. So müssen Inhalte nur ein einziges Mal gespeichert und gepackt werden. Es werden keine separaten Datensätze der gleichen Audio- und Video-Daten benötigt, um Online-Videos auf unterschiedlichen Endgeräten darzustellen. 

Die CMAF-Verschlüsselung der Chunks mindert dabei die Latenz. Videoproben ohne CMAF-Chunk werden vom Kodierer erst dann ausgegeben und über das Netzwerk gesendet, wenn das vollständige Segment erstellt ist. Erst im Anschluss startet der Dekodierer seine Arbeit. Segmente mit CMAF-Chunks nutzen hingegen kodierte Video-Chunks, so genannte Videofragmente. Die Kodierung sorgt dafür, dass die Teilstücke korrekt beschrieben, sind und signalisiert den Endgeräten die Verfügbarkeit von kleineren Abschnitten. Diese kleineren Teilsegmente lassen sich bereits übertragen, bevor das vollständige Videosegment kodiert ist. Folglich startet der Dekodierer auch mit dem Abspielen, bevor das gesamte Segment eingegangen ist.

Abbhilfe 3: WebRTC für Real-Time-Ausstrahlungen 

Google, Mozilla, Opera und anderen großen Marktteilnehmern unterstützen das Open-Source-Projekt Web Real-Time Communications (WebRTC) für die Kommunikation über Browser und mobile Anwendungen. In erster Instanz wurde es für Webkonferenzen eingesetzt. Doch die Technologie wird mittlerweile auch bei Video-Sendungen mit großen Zuschauerzahlen eingesetzt. Sie nutzt das Netzwerkprotokoll UDP, was im Vergleich zu TCP/IP-Netzwerkprotokollen wesentlich effektiver ist. So entfällt auch die Chunk-Segmentierung der Datenströme durch den Kodierer sowie eine Zwischenspeicherung.  

Ohne die Einrichtung spezieller Plugins oder Videoplayer gibt WebRTC zudem die Inhalte auf Standard-Webbrowsern ohne Probleme wieder. Eine angepasste Bitrate sorgt für eine optimale Bildqualität selbst unter variablen Netzwerkbedingungen, so dass der Zuschauer ein einwandfreies Seherlebnis erfährt. 

Um Zuschauer zufriedenzustellen und zu binden, benötigen die Medien- und Broadcast-Unternehmen die Dienste und Technologien von Content-Delivery-Network (CDN)-Anbietern wie Limelight Networks. Sie unterstützen die Branche dabei, jedem Nutzer ein hochqualitatives Seherlebnis zu liefern und auch im lukrativen Event-Bereich wettbewerbsfähig zu bleiben. Um entsprechende Streams bereitstellen zu können, müssen Hindernisse für den Web-Traffic aus dem Weg geräumt und eine störungsfreie Übertragung gewährleistet werden. Die Medienauslieferungs-Infrastruktur muss dabei flexibel bleiben, da Nutzer Live-Events zunehmend online verfolgen und immer mobiler werden. Die Herausforderung besteht darin, über diese Kanäle ein Erlebnis in TV-Qualität und in Echtzeit zu schaffen. 

Bildquelle:

  • streaminghackershots: © kentoh - stock.adobe.com

1 Kommentare im Forum

  1. Die Geschwindigkeit ist exakt gleich, nämlich Lichtgeschwindigkeit. In Zeitlupe? Blödsinn, die ist nicht langsamer sondern technisch bedingt nur verzögert.
Alle Kommentare 1 im Forum anzeigen

Kommentieren Sie den Artikel im Forum