Dezember 5, 2018von Justin Miller
Um dieses Video anzuzeigen, aktivieren Sie bitte JavaScript und erwägen Sie ein Upgrade auf einen Webbrowser, der HTML5-Videos unterstützt
Lassen Sie uns über den Prozess des Live-Video-Streamings sprechen. Es beginnt bei der Kamera. Heutige Kameras sind digital und können Bilder mit einer atemberaubenden 4K-Auflösung (2160p) aufnehmen. Diese Auflösung erfordert eine sehr hohe Bitrate, um das aus der Kamera kommende „rohe“ digitale Videosignal zu unterstützen. In einigen Fällen können HDMI- oder Ethernet-Kabel verwendet werden. In den meisten Fällen erfordert ein 4K-Signal, das über große Entfernungen übertragen wird, ein SDI-Kabel, das die Bandbreitenanforderungen erfüllen kann.
Einige Live-Streams werden mit einem Smartphone durchgeführt, aber ernstere Live-Produktionen verwenden zusätzliche Kameras. Gemeinsame Live-Produktionen verwenden oft ein Drei-Kamera-Studio-Setup. Diese Kameras und andere Videoquellen sind mit einem Umschalter verbunden, der zwischen ihnen wechselt. Audio für eine Produktion wird über XLR-Kabel an einen Mixer übertragen. Im Allgemeinen fügt der Umschalter das Audio vom Mixer in das endgültige Ausgangssignal ein. Es kann auch die Möglichkeit enthalten, Grafiken, Titel und sogar Animationen hinzuzufügen. Der Umschalter kann Hardware, Software oder ein wenig von beidem sein, wenn Capture-Karten benötigt werden.
Codierung von Live-Videos in ein streamfähiges Dateiformat
Damit das endgültige Ausgangssignal gespeichert oder gestreamt werden kann, muss das Videosignal über einen Encoder in einen Codec komprimiert werden. Codecs gibt es in allen Formen und Größen. Ein Standard in der Branche ist H.264, das häufig für Rundfunk und Vertrieb verwendet wird. H.264 komprimiert das Video so, dass es problemlos gestreamt werden kann, was bedeutet, dass Gigabyte in Megabyte komprimiert werden.
Der Encoder selbst kann in die Kamera integriert sein, es kann sich aber auch um ein eigenständiges Gerät, eine Computersoftware oder eine mobile App handeln. In vielen Fällen ist es in moderne Broadcast-Software integriert.
Sobald der Videostream über den Encoder komprimiert wurde, müssen die Videodaten noch in ein Echtzeitübertragungsprotokoll (RTP) gepackt werden, um über das Internet bereitgestellt zu werden. Als großer Strom kontinuierlicher Daten muss er in verdauliche Teile oder Informationspakete zerlegt werden. Diese Pakete werden später vom Media Player rekombiniert und in ein kontinuierliches Signal decodiert. Viele Encoder verwenden RTMP als Standard für den Beitrag der ersten Meile.
Bereitstellen von Streaming-Medien an Server
Nach dem Verpacken wird der Stream entweder gezogen oder an einen Medienserver gesendet. Der Medienserver befindet sich möglicherweise auf demselben System wie der Encoder oder befindet sich irgendwo in der Cloud. Wir bieten die Wowza Streaming Engine ™ -Software als Medienserver-Software an, die Sie auf Ihren eigenen Servern installieren können — ob vor Ort oder auf einer Cloud-Plattform eines Drittanbieters —, um sie selbst zu verwalten und anzupassen. Wir haben auch den Wowza Streaming Cloud ™ -Dienst für diejenigen, die schnell und problemlos loslegen möchten.
Transkodierung, Transition, Transrating und Transmuxing
Medienserver nehmen den Stream vom Encoder auf und konvertieren das Video nach Bedarf. Eingang ist die Datenmenge, die in den Medienserver gelangt. Medienserver können die Daten in einen neuen Codec umcodieren. Sie können das Video in verschiedene Auflösungen umwandeln und sogar die Daten transratieren, wodurch unterschiedliche Bitraten erzeugt werden. Medienserver können die Daten auch neu verpacken oder in verschiedene Protokolle umwandeln. Die Daten, die von einem Medienserver übertragen werden, werden als Egress bezeichnet. Aber lassen Sie uns darüber sprechen, warum ein Medienserver notwendig ist, indem wir uns ansehen, wer den Live-Stream ansieht und was ein großartiges Fernseherlebnis ausmacht.
Adaptives Bitraten-Streaming
Sie möchten, dass Ihr Live-Stream so viele Zuschauer wie möglich erreicht, aber nicht alle werden Ihren Stream auf die gleiche Weise konsumieren. Einige Zuschauer werden große Bildschirme haben, einige werden Mobiltelefone haben, einige werden im Internet sein, und einige könnten auf schrecklichem Wi-Fi oder sogar LTE sein.
Das ist, wo adaptive Bitrate (ABR) Streaming so wichtig wird. Ein Medienserver erstellt ABR-Wiedergaben, die wie Elemente in einem Menü sind, das aus den verschiedenen erstellten Auflösungen und Bitraten besteht. Dann kann die Technologie, die das Video wiedergibt, die beste Wiedergabe für die Anzeige basierend auf der Größe des Bildschirms und der verfügbaren Netzwerkbandbreite auswählen — während dynamisch zwischen den Optionen gewechselt wird, wenn die Ressourcen schwanken. Kurz gesagt, ABR stellt sicher, dass Ihre Zuschauer die beste Qualität Live-Stream für ihre Betrachtungsbedingungen haben.
Streaming von Videos auf jedes Gerät über jede Verbindung
Ihre Zuschauer können auf einer Set-Top-Box, über einen Internetbrowser oder über eine App auf ihrem Mobilgerät zuschauen. Je nachdem, was sie verwenden, benötigen sie möglicherweise ein anderes Protokoll. Während eine an Ihren Fernseher angeschlossene Set-Top-Box möglicherweise noch RTMP verwendet, akzeptiert Ihr iPhone nur HLS und Ihr Browser-Player führt möglicherweise MPEG DASH aus. Auch hier kann Ihr Medienserver Ihren Live-Stream in ein beliebiges Protokoll konvertieren, das als Transmuxing bezeichnet wird, und die Bereitstellung an Ihre Zuschauer unabhängig vom Gerät Ihrer Wahl sicherstellen.
Ein Medienserver kann noch mehr tun, z. B. zusätzliche Informationen einfügen, den Stream als Videodatei speichern und ähnliche Konvertierungen wie das Audio durchführen. Und denken Sie daran, dass Sie mit einem Stream, der in einen Medienserver (Ingest) und mehreren Wiedergaben (Egress) kommt, mehr Bandbreite benötigen, damit Egress ein großes Publikum unterstützt.
Bereitstellung großartiger Streaming-Erlebnisse für Zuschauer auf der ganzen Welt
Zurück für Zuschauer. Weil wir nicht wissen, wo sie sich befinden, gibt es immer noch das Problem der Entfernung. Je weiter sie vom Medienserver entfernt sind, desto länger dauert es, bis das Signal zu ihnen gelangt. Diese Entfernung kann zu Latenz und Pufferung führen.
Um einige dieser Probleme zu beheben, verwenden viele Sender ein Content Delivery Network (CDN). Es ist ein Netzwerk von Medienservern, die über die ganze Welt verteilt sind und große Datenmengen verarbeiten können. Die Server, die dem Viewer am nächsten liegen, werden als Edge-Server bezeichnet. Der Datenstrom wird im gesamten Netzwerk bereitgestellt und verbindet sich schließlich mit den Zuschauern auf dem Edge-Server, der ihnen am nächsten liegt. Einige Sender bauen ihre eigenen Netzwerke mit Wowza Streaming Engine sowohl für Pass-Through als auch als Edge-Server auf. Andere nutzen Dienste wie unser Wowza CDN.
Live-Video-Streaming in sozialen Medien
Das letzte, woran Sie denken sollten, sind soziale Netzwerke mit eigenem CDN. Netzwerke wie Facebook, YouTube Live und Twitch akzeptieren häufig RTMP und verfügen über ein eigenes Content Delivery Network für benutzergenerierte Videos. Viele streamen direkt von ihren Encodern zu diesen sozialen Netzwerken. Wir bieten die Wowza ClearCaster™ Appliance als Encoder an, der direkt auf Facebook Live und darüber hinaus streamt. Über einen Medienserver können Social-Media-Netzwerke gleichzeitig in Verbindung mit Ihrem eigenen Delivery-Netzwerk angesprochen werden, wodurch die Reichweite Ihres Live-Streams weiter erhöht wird.
End-to-End-Streaming-Lösungen für die weltweite Bereitstellung von Live-Videos
Bei Live-Video-Streaming geht es heute darum, die richtigen Tools einzusetzen. Selbst mit einem globalen Zuschauerpublikum auf einer Vielzahl von Plattformen ist Live-Video-Streaming in höchster Qualität möglich.
Ich hoffe, dies hilft Ihnen, die Komplexität des Live-Streamings besser zu verstehen und Sie für die endlosen Möglichkeiten zu begeistern, das Publikum zu begeistern.
Werden Sie Streaming-Experte
Entdecken Sie den Guide