dicembre 5, 2018by Justin Miller
Per visualizzare questo video, si prega di abilitare JavaScript, e prendere in considerazione l’aggiornamento a aweb browser thatsupports video HTML5
parliamo del processo di live video streaming. Inizia dalla telecamera. Le fotocamere di oggi sono digitali e possono catturare immagini con una straordinaria risoluzione 4K (2160p). Questa risoluzione richiede un bitrate molto alto per supportare il segnale video digitale ” raw ” che esce dalla fotocamera, quindi i cavi utilizzati per trasferire questo segnale devono essere in grado di gestire grandi quantità di dati. In alcuni casi è possibile utilizzare cavi HDMI o ethernet. Ma il più delle volte, un segnale 4K trasferito su lunghe distanze richiede un cavo SDI in grado di gestire i requisiti di larghezza di banda.
Alcuni live streaming è fatto con uno smartphone, ma più gravi produzioni dal vivo impiegano telecamere aggiuntive. Le produzioni live comuni spesso utilizzano una configurazione di studio a tre telecamere. Queste telecamere e altre sorgenti video sono collegate a uno switcher che transita tra di loro. Audio per una produzione viene trasferito ad un mixer tramite cavi XLR. Generalmente, lo switcher aggiunge l’audio dal mixer nel segnale di uscita finale. Può anche includere la possibilità di aggiungere grafica, titoli e persino animazioni. Lo switcher potrebbe essere hardware, software o un po ‘ di entrambi quando sono necessarie schede di acquisizione.
Codifica video live in un formato di file streamable
Per il segnale di uscita finale da memorizzare o in streaming, il segnale video deve essere compresso attraverso un encoder in un codec. I codec sono disponibili in tutte le forme e dimensioni. Uno standard nel settore è H. 264, che viene spesso utilizzato per la trasmissione e la distribuzione. H. 264 comprime il video per essere facilmente in streaming, il che significa comprimere gigabyte a megabyte.
L’encoder stesso potrebbe essere integrato nella fotocamera, ma può anche essere un apparecchio stand-alone, software per computer o app mobile. In molti casi è integrato nel moderno software di trasmissione.
Una volta che il flusso video viene compresso tramite l’encoder, i dati video devono ancora essere impacchettati in un protocollo di trasferimento in tempo reale (RTP) per la consegna su Internet. Come un grande flusso di dati continui, ha bisogno di essere suddiviso in blocchi digeribili, o pacchetti di informazioni. Questi pacchetti verranno successivamente ricombinati e decodificati in un segnale continuo dal lettore multimediale. Molti encoder utilizzano RTMP come standard per il contributo del primo miglio.
Consegna dei media in streaming ai server
Dopo il confezionamento, il flusso viene estratto o inviato a un server multimediale. Il server multimediale potrebbe trovarsi sullo stesso sistema dell’encoder o in remoto da qualche parte nel cloud. Offriamo il software Wowza Streaming Engine™ come software media server che è possibile installare sui propri server-siano essi on premise o una piattaforma cloud di terze parti-per gestire e personalizzare da soli. Abbiamo anche il servizio Wowza Streaming Cloud™ per coloro che vogliono ottenere installato e funzionante rapidamente senza problemi.
Transcodifica, transizione, transratazione e Transmuxing
I media server acquisiscono il flusso dall’encoder e convertono il video secondo necessità. Ingress è la quantità di dati che entrano nel server multimediale. I media server possono transcodificare i dati in un nuovo codec. Possono passare il video in diverse risoluzioni e persino transrate i dati, creando diversi bitrate. Media server possono anche riconfezionare, o transmux, i dati in diversi protocolli. I dati trasferiti da un media server sono noti come uscita. Ma parliamo del perché un media server è necessario guardando chi sta visualizzando il live stream e ciò che rende una grande esperienza visiva.
Adaptive Bitrate Streaming
Vuoi che il tuo live stream raggiunga il maggior numero possibile di spettatori, ma non tutti consumeranno il tuo stream nello stesso modo. Alcuni spettatori avranno grandi schermi, alcuni avranno telefoni cellulari, alcuni saranno su Internet incredibile, e alcuni potrebbero essere su terribile Wi-Fi o anche LTE.
Ecco dove adaptive bitrate (ABR) streaming diventa così importante. Un media server crea “rendering” ABR, che sono come elementi di un menu composto da tutte le diverse risoluzioni e bitrate creati. Quindi, la tecnologia che riproduce il video può scegliere la migliore resa per la visualizzazione in base alle dimensioni dello schermo e alla larghezza di banda di rete disponibile, passando dinamicamente tra le opzioni man mano che le risorse fluttuano. In breve, ABR assicura che i tuoi spettatori abbiano la migliore qualità in diretta streaming per le loro condizioni di visualizzazione.
Streaming video su qualsiasi dispositivo su qualsiasi connessione
I tuoi spettatori potrebbero guardare su un set-top box, attraverso un browser Internet o la visualizzazione tramite un’app sul proprio dispositivo mobile. A seconda di cosa stanno usando, potrebbero richiedere un protocollo diverso. Mentre un set-top box collegato al televisore può ancora utilizzare RTMP, il vostro iPhone accetta solo HLS e il lettore del browser può essere in esecuzione MPEG DASH. Anche in questo caso, il server multimediale può convertire il flusso in diretta in qualsiasi protocollo è richiesto, chiamato transmuxing, e garantire la consegna ai vostri spettatori, non importa il loro dispositivo di scelta.
Ci sono più cose che un media server può fare, anche, come l’iniezione di informazioni aggiuntive, salvare il flusso come file video, e fare conversioni simili per l’audio. E tieni presente che, con un flusso che entra in un media server (ingest) e più rendering che escono (in uscita), avrai bisogno di più larghezza di banda per l’uscita per supportare un vasto pubblico.
Offrire grandi esperienze di streaming al pubblico di tutto il mondo
Torna agli spettatori. Perché non sappiamo dove si trovano, c’è ancora il problema della distanza. Il più lontano sono dal server multimediale, più tempo ci vuole per il segnale per arrivare a loro. Tale distanza può causare latenza e buffering.
Per risolvere alcuni di questi problemi, molte emittenti utilizzano una rete di distribuzione di contenuti (CDN). Si tratta di una rete di media server sparsi in tutto il mondo che è in grado di gestire grandi quantità di dati. I server più vicini al visualizzatore sono chiamati edge server. Il flusso di dati viene distribuito in tutta la rete, collegandosi infine con gli spettatori sul server edge più vicino a loro. Alcune emittenti costruiscono le proprie reti utilizzando il motore di streaming Wowza sia per il pass-through che come server edge. Altri utilizzano servizi là fuori come il nostro CDN Wowza.
Streaming video in diretta sui social media
L’ultima cosa a cui pensare sono le reti di social media con la propria CDN. Reti come Facebook, YouTube Live e Twitch spesso accettano RTMP e dispongono di una propria rete di distribuzione dei contenuti per i video generati dagli utenti. Molti streaming direttamente dai loro encoder a queste reti di social media. Offriamo l’appliance Wowza ClearCaster™ come encoder che trasmette direttamente a Facebook Live e oltre. Attraverso un media server, le reti di social media possono essere simultaneamente mirate insieme alla tua rete di distribuzione, aumentando ulteriormente la portata del tuo live stream.
Soluzioni di streaming end-to-end per la distribuzione di video in diretta in tutto il mondo
Lo streaming video in diretta oggi si tratta di utilizzare gli strumenti giusti. Anche con un pubblico di visione globale su una varietà di piattaforme, è possibile un’esperienza di streaming video live di altissima qualità.
Spero che questo ti aiuti a capire di più sulle complessità del live streaming e ti entusiasmi delle infinite possibilità di coinvolgere il pubblico.
Diventa un esperto di streaming
Esplora la Guida