Video digitale - Digital video

Il video digitale è una rappresentazione elettronica di immagini visive in movimento ( video ) sotto forma di dati digitali codificati . Questo è in contrasto con il video analogico , che rappresenta immagini visive in movimento sotto forma di segnali analogici . Il video digitale comprende una serie di immagini digitali visualizzate in rapida successione.

Il video digitale è stato introdotto per la prima volta in commercio nel 1986 con il formato Sony D1 , che registrava un segnale video component a definizione standard non compresso in forma digitale. Oltre ai formati non compressi, i formati video digitali compressi più diffusi oggi includono H.264 e MPEG-4 . I moderni standard di interconnessione utilizzati per la riproduzione di video digitali includono HDMI , DisplayPort , Digital Visual Interface (DVI) e interfaccia digitale seriale (SDI).

I video digitali possono essere copiati e riprodotti senza alcun degrado della qualità. Al contrario, quando le sorgenti analogiche vengono copiate, subiscono una perdita di generazione . I video digitali possono essere archiviati su supporti digitali come Blu-ray Disc , su dispositivi di archiviazione dati del computer o trasmessi in streaming su Internet agli utenti finali che guardano i contenuti sullo schermo di un computer desktop o su una smart TV digitale . Oggi, i contenuti video digitali come programmi TV e film includono anche una colonna sonora audio digitale .

Storia

Videocamere digitali

La base per le videocamere digitali sono i sensori di immagine a semiconduttore a ossido di metallo (MOS) . Il primo sensore di immagine a semiconduttore pratico è stato il dispositivo ad accoppiamento di carica (CCD), inventato nel 1969 da Willard S. Boyle, che ha vinto un premio Nobel per il suo lavoro in fisica. basato sulla tecnologia dei condensatori MOS . In seguito alla commercializzazione dei sensori CCD tra la fine degli anni '70 e l'inizio degli anni '80, l' industria dell'intrattenimento ha iniziato lentamente a passare all'imaging digitale e al video digitale rispetto al video analogico nei due decenni successivi. Il CCD è stato seguito dal sensore CMOS a pixel attivi ( sensore CMOS ), sviluppato negli anni '90. I CMOS sono vantaggiosi per le loro dimensioni ridotte, l'alta velocità e il basso consumo energetico. I CMOS si trovano oggi più comunemente nelle fotocamere digitali degli iPhone, utilizzati come censore di immagini per il dispositivo.

Una fotocamera Betacam SP, originariamente sviluppata nel 1986 da Sony.

Codifica video digitale

Le prime forme di codifica video digitale sono iniziate negli anni '70, con video a modulazione di codice a impulsi (PCM) non compressi , che richiedono bitrate elevati tra 45-140 Mbps per i contenuti a definizione standard (SD). La pratica codifica video digitale è stata infine resa possibile con la trasformata del coseno discreta (DCT), una forma di compressione con perdita di dati . La compressione DCT è stata proposta per la prima volta da Nasir Ahmed nel 1972, e poi sviluppata da Ahmed con T. Natarajan e KR Rao presso l' Università del Texas nel 1973. Negli anni '80, DCT è diventato lo standard per la compressione video digitale .

Il primo standard di codifica video digitale era H.120 , creato dal (International Telegraph and Telephone Consultative Committee) o CCITT (ora ITU-T) nel 1984. H.120 non era pratico a causa delle scarse prestazioni. H.120 si basava sulla modulazione differenziale del codice a impulsi (DPCM), un algoritmo di compressione inefficiente per la codifica video. Alla fine degli anni '80, diverse aziende hanno iniziato a sperimentare il DCT, una forma di compressione molto più efficiente per la codifica video. Il CCITT ha ricevuto 14 proposte per formati di compressione video basati su DCT, in contrasto con una singola proposta basata sulla compressione della quantizzazione vettoriale (VQ). Lo standard H.261 è stato sviluppato sulla base della compressione DCT, diventando il primo standard pratico di codifica video. A partire da H.261, la compressione DCT è stata adottata da tutti i principali standard di codifica video successivi.

MPEG-1 , sviluppato dal Motion Picture Experts Group (MPEG), è stato seguito nel 1991 ed è stato progettato per comprimere video di qualità VHS . Gli successe nel 1994 MPEG-2 / H.262 , che divenne il formato video standard per la televisione digitale DVD e SD . È stato seguito da MPEG-4 / H.263 nel 1999, e poi nel 2003 da H.264/MPEG-4 AVC , che è diventato lo standard di codifica video più utilizzato.

Produzione video digitale

A partire dalla fine degli anni '70 ai primi anni '80, sono state introdotte apparecchiature di produzione video che erano digitali nei suoi meccanismi interni. Questi includevano correttori della base dei tempi (TBC) e unità di effetti video digitali (DVE). Operavano prendendo un ingresso video composito analogico standard e digitalizzandolo internamente. Ciò ha reso più semplice correggere o migliorare il segnale video, come nel caso di un TBC, o manipolare e aggiungere effetti al video, nel caso di un'unità DVE. Le informazioni video digitalizzate ed elaborate sono state quindi riconvertite in video analogico standard per l'output.

Più tardi negli anni '70, i produttori di apparecchiature di trasmissione video professionale, come Bosch (attraverso la loro divisione Fernseh ) e Ampex hanno sviluppato prototipi di videoregistratori digitali (VTR) nei loro laboratori di ricerca e sviluppo. La macchina di Bosch utilizzava un trasporto di videocassetta di tipo B da 1 pollice modificato e registrava una prima forma di video digitale CCIR 601 . Il prototipo di videoregistratore digitale di Ampex utilizzava un videotape quadruplex da 2 pollici modificato VTR (un Ampex AVR-3) dotato di elettronica video digitale personalizzata e uno speciale headwheel "octaplex" a 8 teste (i normali quadrupli analogici da 2" utilizzavano solo 4 teste). Come il quad standard da 2", l'audio sul prototipo di macchina digitale Ampex, soprannominato dai suoi sviluppatori come "Annie", registrava ancora l'audio in analogico come tracce lineari sul nastro. Nessuna di queste macchine di questi produttori è mai stata commercializzata.

Il video digitale è stato introdotto per la prima volta in commercio nel 1986 con il formato Sony D1 , che registrava un segnale video component a definizione standard non compresso in forma digitale. Le connessioni video Component richiedevano 3 cavi, ma la maggior parte delle strutture televisive erano cablate per video composito NTSC o PAL utilizzando un cavo. A causa di questa incompatibilità il costo del registratore, D1 è stato utilizzato principalmente da grandi reti televisive e altri studi video in grado di componenti video.

Uno studio televisivo professionale ambientato in Cile.

Nel 1988, Sony e Ampex hanno sviluppato e rilasciato insieme il formato videocassetta digitale D2 , che registrava video digitalmente senza compressione nel formato ITU-601 , molto simile a D1. In confronto, D2 aveva la principale differenza di codificare il video in forma composita secondo lo standard NTSC, richiedendo quindi solo connessioni video composite a cavo singolo da e verso un videoregistratore D2. Ciò lo rendeva perfetto per la maggior parte delle strutture televisive dell'epoca. D2 è stato un formato di successo nel settore delle trasmissioni televisive tra la fine degli anni '80 e gli anni '90. D2 è stato anche ampiamente utilizzato in quell'epoca come formato master tape per masterizzare i laserdisc .

D1 e D2 alla fine sarebbero stati sostituiti da sistemi più economici che utilizzavano la compressione video , in particolare Digital Betacam di Sony , introdotti negli studi televisivi della rete . Altri esempi di formati video digitali che utilizzano la compressione sono stati DCT di Ampex (il primo ad impiegarlo quando introdotto nel 1992), DV e MiniDV standard del settore e le sue varianti professionali, DVCAM di Sony e DVCPRO di Panasonic e Betacam SX , una variante a basso costo di Digital Betacam utilizzando la compressione MPEG-2 .

Il logo Sony, creatore della Betacam.

Uno dei primi prodotti video digitali per l'esecuzione su personal computer è stato PACo: The PICS Animation Compiler di The Company of Science & Art a Providence, RI. È stato sviluppato a partire dal 1990 e distribuito per la prima volta nel maggio 1991. PACo poteva trasmettere video di lunghezza illimitata con audio sincronizzato da un singolo file (con estensione ".CAV" ) su CD-ROM. La creazione richiedeva un Mac e la riproduzione era possibile su Mac, PC e Sun SPARCstation .

QuickTime , il framework multimediale di Apple Computer , è stato rilasciato nel giugno 1991. Audio Video Interleave di Microsoft è seguito nel 1992. Gli strumenti iniziali per la creazione di contenuti di livello consumer erano grezzi e richiedevano la digitalizzazione di una sorgente video analogica in un formato leggibile da computer. Sebbene inizialmente di bassa qualità, il video digitale di consumo è aumentato rapidamente in termini di qualità, prima con l'introduzione di standard di riproduzione come MPEG-1 e MPEG-2 (adottato per l'uso nella trasmissione televisiva e nei supporti DVD ) e l'introduzione del nastro DV formato che consente di trasferire le registrazioni nel formato direttamente su file video digitali utilizzando una porta FireWire su un computer di editing. Ciò ha semplificato il processo, consentendo ai sistemi di editing non lineare (NLE) di essere distribuiti in modo economico e diffuso su computer desktop senza la necessità di apparecchiature di registrazione o riproduzione esterne.

L'adozione diffusa del video digitale e dei relativi formati di compressione ha ridotto la larghezza di banda necessaria per un segnale video ad alta definizione (con HDV e AVCHD , nonché diverse varianti commerciali come DVCPRO -HD, tutte utilizzando una larghezza di banda inferiore rispetto a un segnale analogico a definizione standard ). Questi risparmi hanno aumentato il numero di canali disponibili sulla televisione via cavo e sui sistemi di trasmissione diretta via satellite , creato opportunità per la riallocazione dello spettro delle frequenze di trasmissione televisiva terrestre e reso possibili videocamere tapeless basate su memoria flash , tra le altre innovazioni ed efficienze.

Video e cultura digitale

Culturalmente, il video digitale ha permesso a video e film di diventare ampiamente disponibili e popolari, vantaggiosi per l'intrattenimento, l'istruzione e la ricerca. Il video digitale è sempre più comune nelle scuole, con studenti e insegnanti interessati a imparare a usarlo in modi pertinenti. Il video digitale ha anche applicazioni sanitarie, che consentono ai medici di monitorare la frequenza cardiaca dei neonati e i livelli di ossigeno.

Inoltre, il passaggio dal video analogico a quello digitale ha avuto un impatto sui media in vari modi, ad esempio nel modo in cui le aziende utilizzano le telecamere per la sorveglianza. La televisione a circuito chiuso (CCTV) è passata all'uso di videoregistratori digitali (DVR), presentando il problema di come archiviare le registrazioni per la raccolta delle prove. Oggi il video digitale può essere compresso per risparmiare spazio di archiviazione.

Televisione digitale

La televisione digitale , nota anche come DTV, è la produzione e la trasmissione di video digitali dalle reti ai consumatori. Questa tecnica utilizza la codifica digitale invece dei segnali analogici utilizzati prima degli anni '50. Rispetto ai metodi analogici, DTV è più veloce e offre più capacità e opzioni per la trasmissione e la condivisione dei dati.

Panoramica

Il video digitale comprende una serie di immagini digitali visualizzate in rapida successione. Nel contesto del video, queste immagini sono chiamate frame . La velocità con cui vengono visualizzati i fotogrammi è nota come frequenza fotogrammi e viene misurata in fotogrammi al secondo (FPS). Ogni fotogramma è un'immagine digitale e quindi comprende una formazione di pixel . I pixel hanno una sola proprietà, il loro colore. Il colore di un pixel è rappresentato da un numero fisso di bit di quel colore. Più bit, più sottili variazioni di colore possono essere riprodotte. Questa è chiamata profondità di colore del video.

interlacciamento

Nel video interlacciato ogni fotogramma è composto da due metà di un'immagine. La prima metà contiene solo le linee dispari di un frame completo. La seconda metà contiene solo le righe pari. Queste metà sono indicate singolarmente come campi . Due campi consecutivi compongono un frame completo. Se un video interlacciato ha una frequenza fotogrammi di 30 fotogrammi al secondo, la frequenza di campo è di 60 campi al secondo, sebbene entrambe le parti del video interlacciato, fotogrammi al secondo e campi al secondo siano numeri separati.

Una telecamera trasmessa al Pavek Museum in Minnesota.

Bitrate e BPP

Per definizione, il bit rate è una misura della velocità del contenuto informativo dal flusso video digitale. Nel caso di video non compresso, il bit rate corrisponde direttamente alla qualità del video perché il bit rate è proporzionale a ogni proprietà che influisce sulla qualità del video . La velocità in bit è una proprietà importante durante la trasmissione di video perché il collegamento di trasmissione deve essere in grado di supportare tale velocità in bit. La velocità in bit è importante anche quando si ha a che fare con l'archiviazione di video perché, come mostrato sopra, la dimensione del video è proporzionale alla velocità in bit e alla durata. La compressione video viene utilizzata per ridurre notevolmente la velocità in bit pur avendo scarso effetto sulla qualità.

Bit per pixel (BPP) è una misura dell'efficienza della compressione. Un video a colori reali senza alcuna compressione può avere un BPP di 24 bit/pixel. Il sottocampionamento della crominanza può ridurre il BPP a 16 o 12 bit/pixel. L'applicazione della compressione jpeg su ogni fotogramma può ridurre il BPP a 8 o addirittura 1 bit/pixel. L'applicazione di algoritmi di compressione video come MPEG1 , MPEG2 o MPEG4 consente l'esistenza di valori BPP frazionari.

Velocità in bit costante rispetto a velocità in bit variabile

BPP rappresenta i bit medi per pixel. Esistono algoritmi di compressione che mantengono il BPP pressoché costante per tutta la durata del video. In questo caso, otteniamo anche un'uscita video con un bitrate costante (CBR). Questo video CBR è adatto per lo streaming video in tempo reale, senza buffer ea larghezza di banda fissa (ad es. in videoconferenza). Poiché non tutti i frame possono essere compressi allo stesso livello, poiché la qualità è più gravemente compromessa per scene di elevata complessità, alcuni algoritmi cercano di regolare costantemente il BPP. Mantengono il BPP alto durante la compressione di scene complesse e basso per scene meno impegnative. In questo modo, fornisce la migliore qualità alla velocità in bit media più piccola (e la dimensione del file più piccola, di conseguenza). Questo metodo produce un bitrate variabile perché tiene traccia delle variazioni del BPP.

Panoramica tecnica

Le pellicole standard registrano in genere a 24 fotogrammi al secondo . Per il video, ci sono due standard di frame rate: NTSC , a 30/1.001 (circa 29,97) fotogrammi al secondo (circa 59,94 campi al secondo) e PAL , 25 fotogrammi al secondo (50 campi al secondo). Le videocamere digitali sono disponibili in due diversi formati di acquisizione delle immagini: interlacciata e a scansione progressiva . Le telecamere interlacciate registrano l'immagine in serie alternate di linee: vengono scansionate le righe dispari, quindi vengono scansionate le righe pari, quindi vengono scansionate nuovamente le righe dispari e così via.

Un insieme di linee pari o dispari viene chiamato campo e un accoppiamento consecutivo di due campi di parità opposta viene chiamato frame . Le telecamere a scansione progressiva registrano tutte le linee in ogni fotogramma come una singola unità. Pertanto, il video interlacciato cattura il movimento della scena due volte più spesso del video progressivo a parità di frame rate. La scansione progressiva produce generalmente un'immagine leggermente più nitida, tuttavia, il movimento potrebbe non essere fluido come il video interlacciato.

Il video digitale può essere copiato senza perdita di generazione; che degrada la qualità nei sistemi analogici. Tuttavia, una modifica di parametri come la dimensione del fotogramma o una modifica del formato digitale può ridurre la qualità del video a causa del ridimensionamento dell'immagine e delle perdite di transcodifica . I video digitali possono essere manipolati e modificati su sistemi di editing non lineari .

Il video digitale ha un costo notevolmente inferiore rispetto alla pellicola da 35 mm. In confronto al costo elevato delle pellicole , i supporti digitali utilizzati per la registrazione video digitale, come la memoria flash o l' unità disco rigido, sono molto economici. Il video digitale consente inoltre di visualizzare le riprese sul posto senza la costosa e dispendiosa elaborazione chimica richiesta dalla pellicola. Il trasferimento in rete di video digitali rende superflue le consegne fisiche di nastri e bobine di film.

Un diagramma di pellicola da 35 mm utilizzata nelle fotocamere Cinemscope.

La televisione digitale (inclusa l' HDTV di qualità superiore ) è stata introdotta nella maggior parte dei paesi sviluppati nei primi anni 2000. Oggi il video digitale viene utilizzato nei moderni telefoni cellulari e nei sistemi di videoconferenza . Il video digitale viene utilizzato per la distribuzione di media su Internet , inclusi video in streaming e distribuzione di film peer-to-peer .

Esistono molti tipi di compressione video per servire video digitali su Internet e su dischi ottici. Le dimensioni dei file dei video digitali utilizzati per l'editing professionale generalmente non sono pratiche per questi scopi e il video richiede un'ulteriore compressione con codec da utilizzare per scopi ricreativi.

A partire dal 2011, la risoluzione più alta dimostrata per la generazione di video digitali è 35 megapixel (8192 x 4320). La massima velocità viene raggiunta nelle telecamere industriali e scientifiche ad alta velocità in grado di riprendere video 1024x1024 fino a 1 milione di fotogrammi al secondo per brevi periodi di registrazione.

Proprietà tecniche

Il video digitale dal vivo consuma larghezza di banda. Il video digitale registrato consuma l'archiviazione dei dati. La quantità di larghezza di banda o spazio di archiviazione richiesta è determinata dalla dimensione del fotogramma, dalla profondità del colore e dalla frequenza dei fotogrammi. Ogni pixel consuma un numero di bit determinato dalla profondità del colore. I dati richiesti per rappresentare un frame di dati sono determinati moltiplicando per il numero di pixel nell'immagine. La larghezza di banda è determinata moltiplicando i requisiti di archiviazione per un frame per la frequenza dei fotogrammi. I requisiti di archiviazione complessivi per un programma possono quindi essere determinati moltiplicando la larghezza di banda per la durata del programma.

Questi calcoli sono accurati per i video non compressi , ma a causa della velocità in bit relativamente elevata del video non compresso, la compressione video è ampiamente utilizzata. Nel caso di video compressi, ogni fotogramma richiede solo una piccola percentuale dei bit originali. Notare che non è necessario che tutti i fotogrammi siano ugualmente compressi della stessa percentuale. Considera invece il fattore medio di compressione per tutti i fotogrammi presi insieme.

Interfacce e cavi

Interfacce video digitali appositamente progettate

Interfacce generiche utilizzate per trasportare video digitali

La seguente interfaccia è stata progettata per trasportare video compressi MPEG- Transport:

Anche i video compressi vengono trasmessi utilizzando UDP - IP su Ethernet . Esistono due approcci per questo:

Altri metodi per trasportare video su IP

Formati di archiviazione

Codifica

  • CCIR 601 utilizzato per le stazioni di trasmissione
  • MPEG-4 buono per la distribuzione online di video di grandi dimensioni e video registrati su memoria flash
  • MPEG-2 utilizzato per DVD, Super-VCD e molti formati televisivi trasmessi
  • MPEG-1 utilizzato per i CD video
  • H.261
  • H.263
  • H.264 noto anche come MPEG-4 Part 10 o come AVC , utilizzato per i dischi Blu-ray e alcuni formati televisivi trasmessi
  • Theora usata per i video su Wikipedia

Nastri

  • Betacam SX , Betacam IMX , Digital Betacam o DigiBeta — sistemi video commerciali di Sony , basati sulla tecnologia Betamax originale
  • D-VHS : dati in formato MPEG-2 registrati su un nastro simile a S-VHS
    Un nastro video in formato B archiviato utilizzato nelle trasmissioni danesi.
  • D1 , D2 , D3 , D5 , D9 (noto anche come Digital-S) — vari standard video digitali commerciali SMPTE
  • Digital8 — Dati in formato DV registrati su cassette compatibili con Hi8 ; in gran parte un formato di consumo
  • DV , MiniDV — utilizzato nella maggior parte delle odierne videocamere consumer basate su videocassetta; progettato per l'alta qualità e un facile montaggio; può anche registrare dati ad alta definizione ( HDV ) in formato MPEG-2
  • DVCAM , DVCPRO — utilizzato nelle operazioni di trasmissione professionale; simile al DV ma generalmente considerato più robusto; sebbene siano compatibili con DV, questi formati hanno una migliore gestione dell'audio.
  • DVCPRO 50, DVCPRO HD supportano larghezze di banda maggiori rispetto al DVCPRO di Panasonic.
  • HDCAM è stato introdotto da Sony come alternativa ad alta definizione a DigiBeta.
  • MicroMV — Dati in formato MPEG-2 registrati su una cassetta molto piccola, delle dimensioni di una scatola di fiammiferi; obsoleto
  • ProHD — nome utilizzato da JVC per i suoi camcorder professionali basati su MPEG-2

Dischi

Il disco Blu-ray, un tipo di disco ottico utilizzato per l'archiviazione multimediale.

Guarda anche

Appunti

Riferimenti

link esterno