dimanche 5 janvier 2014

Une histoire des technologies d'enregistrement en vidéo

S'il est un domaine absolument essentiel dans le développement de la télévision et du cinéma numérique c'est bien celui des technologies d'enregistrement des sons et des images animées, et l'histoire du développement des supports et des systèmes utilisés.
Or, on s'aperçoit très vite lorsqu'on cherche des informations à ce sujet, que celles-ci restent confinées dans des cercles étroits de spécialistes ou, au mieux, dans une documentation technique partielle et, le plus souvent rapidement rendue obsolète par les progrès très rapides réalisés dans ces domaines.
Signalons tout de même le blog de Daniel Renard (très intéressant d'ailleurs), qui consacre une page à l'enregistrement vidéo sur magnétoscope Ampex, et les livres de Guy Chesnot, tout particulièrement le dernier : Cloud Computing, Big Data, Parallélisme, Hadoop, qui ne traite pas cependant du cas spécifique de la vidéo, ce qu'il fait en revanche dans un livre plus ancien, Solutions Informatiques pour la Vidéo, désormais épuisé chez l'éditeur.



Il est donc difficile de trouver une somme qui rende compte de l'ensemble des évolutions dans ces domaines, et c'est pourquoi la récente parution du livre de Karl Paulsen, Moving Media Storage Technologies, est intéressante à plus d'un titre.
On notera tout d'abord que ce livre est une solide revue de l'ensemble des technologies d'enregistrement dédiées à l'audio et à l'image, numériques ou analogiques. Mais non content d'être une somme essentielle qui rend compte de l'état de l'art dans ces domaines, le livre nous propose aussi des chronologies du développement des médias et des technologies, ce qui permet de retracer en creux un aperçu intéressant de l'histoire de ces techniques, que d'autres ouvrages ont pu évoquer : on peut citer, par exemple, Video Recording Technology, de Aaron Foisi Nmungwun, qui commence à dater cependant (1989), mais qui adopte une perspective historique et socio-technique plutôt intéressante.
Quelques étapes dans la chronologie des techniques et des médias d'enregistrement :
1877- Edison effectue le premier enregistrement d’une voix sur son phonographe à cylindre
1898- Valdemar Poulsen (Danemark) dépose le brevet du télégraphone, le premier enregistreur magnétique qui utilise un ruban métallique
1925 - Mise en vente des premiers disques enrtegistrés électriquement et des premiers phonographes orthophoniques
1948 - Les premiers enregistreurs Ampex 200 à bande sont utilisés sur le Bing Crosby Show, et l'enregistrement est effectué sur bande d'acétate 3M Scotch 111
1951 - Une équipe sous la direction de Charles Ginsburg commence à travailler chez Ampex sur la conception d'un enregistreur vidéo à bande. 
1953 - Vladimir K. Zworykin et les Laboratoires RCA font la démonstration d'un VTR à défilement longitudinal et ayant trois têtes d'enregistrement, capable d'enregistrer à la vitesse de 360 in./sec. avec un son modulé en amplitude (AM)
1956 - Ampex effectue une démonstration du premier VTR enregistrant en quadruplex au NAB, en avril. Ce "quad" utilise des bandes 3M de 2 pouces qui tournent à la vitesse de 15 pouces/sec. sur une tête rotative. Au cours des 4 années qui suivent, 600 unités seront vendues à 75000$ pièce, principalement aux chaines de télévision.
Et ainsi de suite jusqu'à l'introduction des médias d'enregistrement optique, qui vont progressivement supplanter les bandes, et sont en voie d'être eux-mêmes rangés au rayon des accessoires par les dispositifs à semi-conducteurs (Solid State Devices ou SSD). De toutes façons, production, post-production et diffusion sont aujourd'hui pour l'essentiel tapeless.
 Voici donc un tableau qui reprend quelques unes des dates importantes dans l'avènement des techniques d'enregistrement et de reproduction en vidéo.

    (Copyright : Karl Paulsen)

Une autre chronologie qui montre bien le rythme de la progression des supports d'enregistrement, en densité et en rapidité, est celle des disques magnétiques, appelés plus communément "disques durs". Ces dispositifs sont devenus progressivement essentiels en vidéo et cinéma numérique, en raison d'une part de la transformation des flux vidéo en fichiers ("films have become files" comme le dit si bien David Bordwell), et d'autre part en raison de la quantité sans cesse croissante des volumes de données à traiter.
Concernant ce dernier point, il faut bien remarquer cependant que la progression des technologies de compression, au même titre que l'accroissement des capacités des disques magnétiques, sont probablement les facteurs premiers ayant permis la numérisation de l'ensemble de la chaine de production du cinéma et le passage d'un ensemble de procédés analogiques réalisés en laboratoire à un flux de travail qui se déroule essentiellement dans les salles de post-production. Exit donc, à très court terme, le laboratoire et les copies de travail, et nous voici au stade où l'ingest, à partir des fichiers déjà soigneusement gérés par le DIT (Digital Image Technician) et le Data Wrangler, va permettre de réaliser un "positif" numérique qui, après conformation ira se loger dans un DCDM (Digital Cinema Distribution Master) prêt à être expédié dans les salles...
Voici donc un deuxième tableau qui montre la progression météorique des capacités des supports magnétiques au cours des cinquante dernières années. Et ce n'est pas terminé, puisque la prochaine étape consistera à stocker sur SSD en tournage (c'est déjà le cas, souvent) et à sauvegarder sur le Cloud.

    (Copyright Karl Paulsen)

Le livre de Paulsen consacre tout naturellement un chapitre entier au développement de ces dispositifs d'enregistrement à semi-conducteurs, que la baisse des coûts depuis un an ou deux a rendus omniprésents dans le monde de  la production ciné-vidéo. Il faut donc tout naturellement observer que les dispositifs de lecture-enregistrement à base de SSD connaissent aujourd'hui un succès très important et offrent des avantages non négligeables, par rapport aux disques durs classiques et aux lecteurs à disque magnéto-optique en raison, en particulier, de leur consommation énergétique plus réduite, des temps d'accès réduits et d'une bonne résistance aux chocs.
La baisse des prix ne fait qu'accélérer leur implantation dans "l'industrie", et le remplacement complet des systèmes actuels de serveurs et de stockage de Big Data se fera sans doute dans un avenir pas très lointain - à moins que la production mondiale de semi-conducteurs connaisse un ralentissement important du fait de difficultés dans les pays producteurs...
Paulsen fait donc, dans ce chapitre du livre, un point sur l'histoire et le développement des mémoires flash, qui sont la forme du média tel qu'il est utilisé dans les SSD. 
Il développe ensuite une discussion autour des composants, de la structure des cellules et des modes opératoires des mémoires flash, avant de mettre en relief les avantages et les limites de ces types de dispositifs.
Sur un plan plus strictement technique, il s'attache à démontrer les applications et les différences entre mémoires de type NOR et NAND, comment la protection des données et les questions de sécurité sont gérées dans les SSD, et enfin les principales applications des mémoires flash et des composants alliés dans un SSD.
Un autre chapitre, très intéressant, concerne le développement et l'utilisation des formats de fichiers et en particulier des conteneurs (wrappers) en production et post-production. Ces questions ne sont d'ailleurs pas toujours très bien comprises par les professionnels eux-mêmes et sont une conséquence du développement de la compression vidéo et de son utilisation dans les systèmes de montage non-linéaire (NLE). La multiplication des plateformes et des systèmes concurrents ont montré le besoin d'une standardisation des formats de fichiers. Le développement de formats incompatibles entre eux en production et en diffusion ont créé des problèmes qu'il fallait résoudre chaque fois qu'un nouveau format d'encodage était introduit. C'est ainsi qu'il a fallu mettre en place des plateformes et des systèmes de transcodage, pour convertir ou traduire un format de média vers un autre. Il a donc fallu créer des "formats de fichiers" (à ne pas confondre avec les systèmes de fichiers) que l'on peut décrire comme étant des structures créés à partir des médias eux-mêmes - qui sont généralement compressés, d'une manière ou d'une autre.
La discussion concernera ensuite le développement des codecs qui sont, comme chacun sait, des dispositifs, hardware ou software, qui convertissent les fichiers de médias du domaine non-compressé au domaine compressé (compresseur) ou l'inverse (décompresseur). La solution matérielle, configurée autour d'un serveur de médias classique, consistera à transporter les flux audio et vidéo dans leurs formats standards (SMPTE 259M ou 292M) le long d'un système qui effectuera successivement ingest, transcode et playback dans le format d'origine. Ce qui donne le diagramme suivant :

On retiendra aussi la discussion autour des conteneurs ou "wrapper" : l'élément de base dans une structure de fichiers multimédia comprend des ensembles d'audio, de vidéo et de données, qui sont considérés comme des "essences". L'audio consistera généralement en plusieurs pistes, individuelles ou appairées. La vidéo peut être des images fixes ou en mouvement, dans des résolutions pouvant aller jusqu'à la HD, 2K, 4K. L'information, telle que le time code et les descriptions de prises de vue.
Lorsque ces ensembles d'essences sont combinés avec les métadonnées associées, ils forment un "contenu". Pour permettre de déplacer ces paquets de contenus, devenus des fichiers, dans uun système, ils sont enveloppés dans un "conteneur" ou "wrapper". Ces procédures peuvent prêter à confusion, car les conteneurs sont souvent considérés comme des descripteurs de formats de fichiers ou d'extension. On trouvera par exemple des ".MOV wrapped" ou des ".MXF wrapped".
Suit une discussion du Material eXchange Format (MXF) développé à la suite des efforts du SMPTE. Ce conteneur trouve son origine vers le milieu des années 1990, au moment où il est apparu que la convergence entre IT (technologies de l'information) et audiovisuel se ferait dans les années suivantes. Le développement des systèmes de montage non-linéaires et des serveurs vidéo impliquait une interopérabilité entre systèmes et le transfert des fichiers d'un système à un autre.
L' EBU et le SMPTE travaillèrent alors conjointement pour proposer un cadre de propositions pour l'implantation de nouvelles structures permettant l'interopérabilité entre des systèmes hétérogènes. Le travail donna lieu à une publication en juillet 1998 sous le titre : "Task Force for Harmonized Standards for the Exchange of Programme Material as Bitstreams". Ce travail insistait tout particulièrement sur la nécessité de réaliser la standardisation des conteneurs et des métadonnées. Ce conteneur standard qui est apparu alors a pris le nom de MXF.
Structure d'un fichier MXF de base : Un en-tête (File Header), suivi par le corps (File Body) qui contient les essences et le footer qui clôt le fichier et permet de répéter les métadonnées d'en-tête.
Je n'irai pas plus loin dans cette description des fichiers MXF. Il faut savoir cependant que ce format sert de conteneur à des codecs aussi variés que le MPEG2 utilisé par Sony dans ses caméras, l'AVC Intra utilisé par Panasonic, mais aussi pour le transport dans les DCP des fichiers image et son utilisés pour la diffusion du cinéma en numérique.
A noter aussi que l'EBU et le SMPTE ont formé en avril 2013 une nouvelle "task force" (conjointement avec le VSF ou Video Services Forum) appelée Joint Task Force on Networked Media (JT-NM) dont l'objet est  de permettre de développer de nouvelles infrastructures autour de l'échange et la distribution de médias en réseau. Son objectif sera de définir une stratégie pour le développement d'une infrastructure de réseau pour les professionnels de l'industrie des médias. Il s'agira donc d'assurer l'interopérabilité et la distribution des médias, à la fois sous forme de fichiers ou en streaming, sur une échelle locale, régionale et globale.
On voit donc clairement que, le passage d'une logique de flux stockés localement sur bande à une infrastructure dans laquelle ce sont des fichiers qui sont échangés sur des réseaux informatiques est en voie d'être standardisé, avec très clairement un objectif de délocalisation de la masse des fichiers échangés vers une structure que l'on appelle aujourd'hui le Cloud.
Cependant, la production en "live" continue pour l'essentiel à utiliser du hardware spécialisé et des interfaces SDI ou HD-SDI. Les diffuseurs ont toujours besoin de gérer leurs flux de travail avec des temps de latence réduits au minimum, et une fiabilité maximale, ce qui explique pourquoi ce sont des technologies matures qui prédominent. Toutefois, avec les progrès réalisés dans les transmissions par paquets, et avec le 10 Gigabits Ethernet devenu plus abordable (et les 40 GigE et 100 GigE qui arrivent), il devient réaliste de parler du passage de la production live dans une architecture de réseau unifiée pour l'ensemble de la chaine de production. Ce qui donne le schéma d'évolution suivant :


 (EBU Technology Fact Sheet, septembre 2013)
 


Aucun commentaire:

Enregistrer un commentaire