Latenzen bei Online-Live-TV senken

Live-Fernsehen über das Internet stellt hohe Herausforderungen an die Latenz. Der Online-Zuschauer solle den Ausgang seiner Sendung nicht vom Social-Media-Nutzer vor dem Bildschirm erfahren. Um die Verzögerungen der Signal-Übertragung beim Online-TV im Vergleich zum normalen Fernsehen zu senken, eignen sich mehrere Ansätze.

Gastbeitrag Events wie der Super Bowl, die Fußball-WM oder der Eurovision Songcontest leben vom Spannungsmoment. Gerade deswegen sind sie für Online-Media-Anbieter lukrativ. Aber schon eine durchschnittliche Verzögerung des Online-Streams gegenüber dem herkömmlichen Fernsehen um rund 30 Sekunden kann dieses Erlebnis zerstören: Wenn ein Fußballfan den Spieler seiner Mannschaft auf dem Handy zum Elfmeter anlaufen sieht, ist es höchst ärgerlich, von Zuschauern am Fernseher über Facebook-Kommentare zu erfahren, dass der Ball ins Tor ging. Ebenso vorbei ist es mit der Spannung, wenn die Zuschauer beim Public Viewing über das Internet-TV auf der Restaurantterrasse bereits durch die Reaktionen im Innenbereich das Ergebnis eines Dribblings kennen.

Steve Miller-Jones, der Autor dieses Beitrags, ist VP Edge Strategic & Solutions Architecture bei Limelight Networks (Bild: Limelight Networks).Steve Miller-Jones, der Autor dieses Beitrags, ist VP Edge Strategic & Solutions Architecture bei Limelight Networks (Bild: Limelight Networks).

Eine gegenüber dem klassischen Fernsehen langsamere Signalübermittlung senkt die Akzeptanz von Online-Live-TV. Laut der von Limelight firchgeführten Studie State of Online Video 2019 würde sich jeder zweite Zuschauer in Deutschland mehr Live-Sport online ansehen, wenn die Ausstrahlung nicht langsamer als herkömmliches TV wäre. Noch weniger können sich Inhalte mit Interaktion – etwa Online-Gaming-Events, Auktionen, Quizsendungen oder Wetten – eine zu langsame Darstellung der nächsten Video-Sequenz erlauben. Zudem erfordern sie eine schnelle Rücksendung der Signale.

Bei der Verarbeitung eines Live-Videos und seiner Übermittlung übers Netzwerk an das Endgerät kann eine gewisse Zeit vergehen. Das liegt vor allem daran, dass das Internetprotokoll HTTP TCP/IP ursprünglich nicht für die Ausstrahlung von Video-Inhalten gedacht war. Die Zeit, um ein Kameravideo zu verschlüsseln und auf einem Online-Player oder OTT-Gerät bereitzustellen, wird als Live-Streaming-Latenz bezeichnet. Um Rückstände zu senken, gibt es zahlreiche Möglichkeiten, aber keine Patentlösung. Die jeweils geeignete Methode ergibt sich aus den Inhalten und ihren spezifischen Anforderungen.

Kürzere Chunks schaffen Abhilfe

Zur Lösung des Problems lässt sich die Chunk-Größe anpassen: Vor jeder Video-Wiedergabe über das HTTP-TCP/IP-Protokoll speichert ein Player drei vom Kodierer erstellte Videosegmente – Chunks – im Puffer zwischen. Das braucht Zeit. Bei einer Chunk-Länge von 10 Sekunden sind 30 Sekunden zwischenzuspeichern, bei sechs Sekunden entsprechend 18 Sekunden. Eine kürzeres Videosegment beschleunigt also die Übertragung: Bei bis zu einer Sekunde Länge lässt sich eine End-to-End-Latenz von nur 6 Sekunden erreichen. Gängige HTTP-Chunked-Protokolle wie HLS und MPEG-DASH werden dabei unterstützt. Die Methode eignet sich für Inhalte, die keine Echtzeit-Ausspielung der Signale oder Interaktivität erfordern. Sie hat aber auch ihre Grenzen: Zu kurze Chunks können bei einer Unterbrechung des Datenstroms und einem leeren Puffer ein wiederholtes Zwischenspeichern durch den Player erfordern. Daher sollte jeder Workflow entsprechend getestet werden.

 Abspielgeräte müssen vor Beginn der Widergabe drei Video-Chunks zwischenspeichern (Bild: Limelight Networks).Abspielgeräte müssen vor Beginn der Widergabe drei Video-Chunks zwischenspeichern (Bild: Limelight Networks).

Geringere Latenz durch CMAF-Verschlüsselung

Auch das Common Media Application Format (CMAF) beschleunigt die Darstellung der Signale auf dem Player. Für die Speicherung der Daten in HLS und MPEG-DASH kommt ein einheitlicher Rahmen zum Einsatz. Das hat den Vorteil, dass Inhalte nur ein einziges Mal gespeichert und gepackt werden müssen. Broadcaster müssen nicht mehr zwei separate Datensätze der gleichen Audio- und Video-Daten erstellen, um unterschiedliche Endgeräte wie Tablets, Computer, Smartphones oder andere Endgeräte zu bespielen.

Für eine Senkung der Latenz sorgt die CMAF-Verschlüsselung der Chunks. Bei einer Übertragung von Segmenten ohne CMAF-Chunk werden die Videoproben vom Kodierer erst dann ausgegeben und über das Netzwerk gesendet, wenn ein vollständiges Segment erstellt wurde. Danach beginnt der Dekodierer mit der Entkodierung. Ein in CMAF-Chunks aufgeteiltes Segment verwendet dagegen kodierte Video-Chunks, so genannte Videofragmente. Die Kodierung des Mediums ist nötig, um die Teilstücke korrekt zu beschreiben, und signalisiert die Verfügbarkeit von kleineren Abschnitten. Die einzelnen Fragmente lassen sich bereits übermitteln, bevor das gesamte Videosegment bearbeitet wurde. Folglich startet der Dekodierer auch mit dem Abspielen, bevor das gesamte Segment eingegangen ist.

Abbildung 2: Abspielgeräte müssen vor Beginn der Widergabe drei Video-Chunks zwischenspeichern (Bild: Limelight Networks).Abbildung 2: Abspielgeräte müssen vor Beginn der Widergabe drei Video-Chunks zwischenspeichern (Bild: Limelight Networks).

WebRTC für Real-Time-Ausstrahlungen

Bei Web Real-Time Communications (WebRTC) handelt es sich um ein Open-Source-Projekt für die Kommunikation über Browser und mobile Anwendungen. WebRTC wird von Google, Mozilla, Opera und anderen großen Marktteilnehmern unterstützt. Ursprünglich für Webkonferenzen eingesetzt, ermöglicht die Technologie mittlerweile Video-Sendungen mit großen Zuschauerzahlen. Dafür nutzt sie das im Vergleich zu TCP/IP effektivere Netzwerkprotokoll UDP. Eine Chunk-Segmentierung der Datenströme durch den Kodierer sowie eine Zwischenspeicherung entfällt.

WebRTC ermöglicht zudem die Wiedergabe der Inhalte auf Standard-Webbrowsern – Plugins oder spezielle Videoplayer sind überflüssig. Die Bitrate lässt sich anpassen, sodass der Zuschauer Inhalte selbst unter variablen Netzwerkbedingungen in optimaler Bildqualität sieht. Darüber hinaus bietet die Technologie das bidirektionale Senden von Daten in Echtzeit durch den Zuschauer oder Online-Gamer. Der 2-Wege-Datenkanal ermöglicht so eine Latenz unter einer Sekunde und damit auch die beim Gaming nötige Interaktion.

Limelight Realtime-Streaming (Bild: Limelight Networks)Limelight Realtime-Streaming (Bild: Limelight Networks)

Um Zuschauer zufriedenzustellen und zu binden, benötigen die Medien- und Broadcast-Unternehmen die Dienste und Technologien von Content-Delivery-Network (CDN)-Anbietern wie Limelight Networks. Sie unterstützen die Branche dabei, jedem Nutzer ein hochqualitatives Seherlebnis zu liefern und auch im lukrativen Event-Bereich wettbewerbsfähig zu bleiben. Um entsprechende Streams bereitstellen zu können, müssen Hindernisse für den Web-Traffic aus dem Weg geräumt und eine störungsfreie Übertragung gewährleistet werden. Die Medienauslieferungs-Infrastruktur muss dabei flexibel bleiben, da Nutzer Live-Events zunehmend online verfolgen und immer mobiler werden. Die Herausforderung besteht darin, über diese Kanäle ein Erlebnis in TV-Qualität und in Echtzeit zu schaffen.

ANZEIGE

So reagieren Sie auf die gestiegene Nachfrage von Online-Videos – Wichtige Erkenntnisse und Trends

Der von zahlreichen Ländern wegen der Coronakrise eingeführte Lockdown und die damit verbundene soziale Distanzierung haben neue Rekorde im Online-Videoverkehr gebracht. Erfahren Sie in diesem Webinar, wie Sie Daten untersuchen und quantifizieren, um die Belastung von Netzwerken und CDNs einzuschätzen.

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Latenzen bei Online-Live-TV senken

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *