Affichage des articles dont le libellé est Ampex. Afficher tous les articles
Affichage des articles dont le libellé est Ampex. Afficher tous les articles

lundi 7 avril 2014

Au commencement était la vidéo (3ème partie)

Et la vidéo devint numérique...
Ce qui apparait, au départ, comme une manière de réduire la quantité d'informations transmises le long d'un vecteur de communication - à savoir l'échantillonnage puis la quantification du flux d'un signal analogique et sa transformation en un ensemble discret (c'est à dire discontinu) d'informations - préfigure en fait une transformation complète des conditions de la production et de la distribution des programmes en vidéo et audio. Cette transformation n'est donc pas seulement technologique. Elle aboutit en fait à établir un nouveau paradigme dans la création et la diffusion des images animées. 
Dans le monde des années 1970-1980, deux entités semblaient exister séparément, à la fois sur un plan philosophique et dans le domaine de la fabrication. Il y avait d'un côté le cinéma, le lieu même d'une esthétique exigeante - de l'image, des thèmes abordés, de la réflexion - à même de se mouvoir dans des sphères conceptuelles telles que les philosophes eux-mêmes iront y puiser leurs modèles, et de l'autre la vidéo, enfant mal né, pourrait-on dire, de la télévision, situé quelque part entre le travail de récupération d'éléments appartenant à la société technologique et un bricolage conceptuel allant puiser ses sources parmi les avant-gardes du début du siècle - Futurisme, Dada, théâtre de l'absurde... D'un côté une réflexion prenant ses sources dans l'esthétique et la linguistique, adaptant à tour de bras des classiques de la littérature, abordant des thèmes jugés universels, déplaçant des foules et disposant de moyens considérables. De l'autre des artistes, relativement marginaux au regard du marché de l'art de l'époque, et travaillant pour la plupart dans des institutions culturelles au financement limité.
Certains évènements cependant, liés à la transformation technologique qui prend place au début des années 1970, vont progressivement changer la donne. Il y aura tout d'abord l'invention du microprocesseur - Intel lance le premier microprocesseur 4 bits, le 4004, en 1971, puis un microprocesseur 8 bits, le 8008 l'année suivante. Motorola suivra, peu de temps après, et équipera plusieurs micro-ordinateurs de l'époque - dont l'Apple II - avec un processeur 8 bits, le MC-6502. Pour la télévision aussi, c'est le début d'une autre époque : elle est marquée par la recherche d'une image et de programmes plus "racoleurs", en tous cas susceptibles de coller à ce que les programmateurs estiment être l'esprit de leur temps. Les générateurs d'effets numériques apparaissent sur le marché (l'ADO d'Ampex, l'Abekas A-51...), les effets d'incrustation se multiplient dans les émissions, et la force de frappe de la télévision récupère progressivement les inventions des artistes-bricoleurs des décennies précédentes.Couplés à un mélangeur vidéo, ces effets numériques façonnent l'identité visuelle de bon nombre d'émissions de l'époque, tandis que certains réalisateurs ou créateurs d'effets spéciaux (on ne disait pas encore 'designer') s'en donnent à cœur joie dans les génériques et les shows télévisés. En France, Jean-Christophe Averty imprime son style à l'ORTF, tandis que Jean-Paul Fargier, Michel Jaffrenou, Patrick Bousquet ou encore Thierry Kuntzel travaillent dans le cadre plus expérimental de l'art vidéo.
C'est à peu près à la même époque qu'apparait sur le marché la Paintbox de Quantel. Véritable station de travail, dotée de capacités graphiques très avancées, cette machine va révolutionner le travail en post-production, en permettant d'effectuer des retouches d'image très perfectionnées et en créant un style visuel unique pour chaque programme, ce qu'on appellera par la suite un 'habillage'. La Paintbox a constitué une révolution pour l'industrie des médias - et pour bon nombre d'artistes indépendants - en raison de certaines de ses propriétés, uniques pour l'époque. Elle permettait, en particulier, d'insérer des graphiques et des titres en temps réel, sur l'écran, pendant une émission. L'infographiste se servait pour cela d'un dispositif interactif d'un type nouveau : un stylet et une tablette. Elle permettait aussi d'effectuer rapidement des retouches d'image et de les insérer tout de suite après dans le flux de production.
[Il faut rappeler ici le travail pionnier de Alvy Ray Smith et Ed Emshwiller  au Computer Graphics Lab de NYIT, dans les années 1970. A. R. Smith mettra au point plusieurs programmes de création infographique interactifs, développés sur des 'frame buffers', ou 'mémoires d'image' et aidera Ed Emshwiller à réaliser un film, Sunstone, en 1979]
D'autres machines lui emboiteront le pas, avec des caractéristiques le plus souvent en retrait en termes de performance. On peut citer ainsi le Video Toaster de NewTek, conçu pour s'intégrer à l'Amiga de Commodore, ou encore les cartes Targa de la firme américaine Truevision. Cependant, et de manière très progressive, les ordinateurs personnels et les stations de travail gagnaient en puissance, et avec le développement d'algorithmes de compression pour la vidéo (MPEG-1 et surtout MPEG-2), c'est une toute nouvelle époque qui a démarré vers le milieu des années 1990. Cette fois il devient possible d'intégrer de la vidéo dans des systèmes informatiques, de la distribuer (câble ou satellite) et de la traiter en post-production à travers des interfaces logicielles perfectionnées (le montage non-linéaire). Cette fois encore le changement est brutal. Le passage d'une logique de montage dans laquelle l'accès aux données est séquentiel, à un système dans lequel l'accès aux médias peut se faire de manière aléatoire, change alors les habitudes de travail de bien des professionnels du montage - ce qui ne va pas sans heurts dans les équipes... Certaines chaines de télévision ont ainsi du retarder de plusieurs années leur équipement en stations de montage non-linéaire pour permettre à leurs monteurs de s'adapter... ou de partir à la retraite.

La logique des nouveaux médias
Il faut dès lors envisager les changements survenus dans la sphère des médias audiovisuels comme le passage progressif d'une logique de flux à une logique d'éléments distribués et accessibles à tout moment - ce passage n'est toujours pas achevé, mais c'est bien de cela qu'il s'agit désormais. La fin du 'broadcast' à moyen terme. Cependant, pour l'univers des créateurs œuvrant dans  le domaine des médias audiovisuels, c'est une autre partition qui se joue désormais depuis quinze ans au moins. Elle intègre de manière définitive audiovisuel et informatique, car l'ordinateur présente une caractéristique unique - que la vidéo ou le cinéma traditionnel ne possèdent pas. Il permet à l'utilisateur d'interagir avec lui, c'est à dire de l'amener à exécuter des opérations qui n'étaient pas prévues à l'origine, pour peu qu'on sache le programmer (autrement dit lui fournir des instructions dans un format qu'il 'comprend'). C'est cette caractéristique unique, l'alliance de l'art et de l'algorithmique, qui est résumée par le titre du livre manifeste de Casey Reas et Chandler McWilliams, Form + Code (2010).
En réalité, on assiste bien depuis une quinzaine d'années maintenant, à "un processus général de reconceptualisation culturelle" (L. Manovich, Le Langage des Nouveaux Médias, p. 128). Car, nous dit encore Manovich, "la qualité la plus fondamentale et sans précédents historiques des nouveaux médias [c'est] le fait qu'ils soient programmables. Les comparer avec l'imprimerie, la photographie ou la télévision ne nous éclairera jamais que partiellement sur leur nature." Il faut donc définir un autre cadre conceptuel, pour poursuivre une étude actualisée de l'audiovisuel à l'ère du numérique. Et, cette fois, comme il semble bien que plus rien ne s'y oppose, ce cadre devrait aussi inclure le cinéma, dont les modes de production et de consommation changent de manière radicale. Difficile en effet de prétendre maintenir une spécificité de l'expérience de cinéma, alors qu'on regarde de moins en moins de films en salle, et de plus en plus sur des systèmes de 'home cinéma' - quand ce n'est pas carrément sur une tablette. Et quid aussi de la question des séries TV, auxquelles artpress 2 vient de consacrer un numéro (ce qui montre bien l'importance du déplacement qui a eu lieu, puisque ces productions sont devenues désormais des objets à part entière de l'analyse filmique). 
Bien que le cinéma soit généralement assimilé à un art de la narration, le moment est peut-être venu de reprendre les recherches entamées par les formalistes des années 1920, puis par les cinéastes qui ont travaillé sur des films dits 'structurels' (structural film) dans les années 1970, et de tenter d'intégrer dans le langage cinématographique les données de la perception et celles fournies par le système de production d'images en mouvement.

dimanche 5 janvier 2014

Une histoire des technologies d'enregistrement en vidéo

S'il est un domaine absolument essentiel dans le développement de la télévision et du cinéma numérique c'est bien celui des technologies d'enregistrement des sons et des images animées, et l'histoire du développement des supports et des systèmes utilisés.
Or, on s'aperçoit très vite lorsqu'on cherche des informations à ce sujet, que celles-ci restent confinées dans des cercles étroits de spécialistes ou, au mieux, dans une documentation technique partielle et, le plus souvent rapidement rendue obsolète par les progrès très rapides réalisés dans ces domaines.
Signalons tout de même le blog de Daniel Renard (très intéressant d'ailleurs), qui consacre une page à l'enregistrement vidéo sur magnétoscope Ampex, et les livres de Guy Chesnot, tout particulièrement le dernier : Cloud Computing, Big Data, Parallélisme, Hadoop, qui ne traite pas cependant du cas spécifique de la vidéo, ce qu'il fait en revanche dans un livre plus ancien, Solutions Informatiques pour la Vidéo, désormais épuisé chez l'éditeur.



Il est donc difficile de trouver une somme qui rende compte de l'ensemble des évolutions dans ces domaines, et c'est pourquoi la récente parution du livre de Karl Paulsen, Moving Media Storage Technologies, est intéressante à plus d'un titre.
On notera tout d'abord que ce livre est une solide revue de l'ensemble des technologies d'enregistrement dédiées à l'audio et à l'image, numériques ou analogiques. Mais non content d'être une somme essentielle qui rend compte de l'état de l'art dans ces domaines, le livre nous propose aussi des chronologies du développement des médias et des technologies, ce qui permet de retracer en creux un aperçu intéressant de l'histoire de ces techniques, que d'autres ouvrages ont pu évoquer : on peut citer, par exemple, Video Recording Technology, de Aaron Foisi Nmungwun, qui commence à dater cependant (1989), mais qui adopte une perspective historique et socio-technique plutôt intéressante.
Quelques étapes dans la chronologie des techniques et des médias d'enregistrement :
1877- Edison effectue le premier enregistrement d’une voix sur son phonographe à cylindre
1898- Valdemar Poulsen (Danemark) dépose le brevet du télégraphone, le premier enregistreur magnétique qui utilise un ruban métallique
1925 - Mise en vente des premiers disques enrtegistrés électriquement et des premiers phonographes orthophoniques
1948 - Les premiers enregistreurs Ampex 200 à bande sont utilisés sur le Bing Crosby Show, et l'enregistrement est effectué sur bande d'acétate 3M Scotch 111
1951 - Une équipe sous la direction de Charles Ginsburg commence à travailler chez Ampex sur la conception d'un enregistreur vidéo à bande. 
1953 - Vladimir K. Zworykin et les Laboratoires RCA font la démonstration d'un VTR à défilement longitudinal et ayant trois têtes d'enregistrement, capable d'enregistrer à la vitesse de 360 in./sec. avec un son modulé en amplitude (AM)
1956 - Ampex effectue une démonstration du premier VTR enregistrant en quadruplex au NAB, en avril. Ce "quad" utilise des bandes 3M de 2 pouces qui tournent à la vitesse de 15 pouces/sec. sur une tête rotative. Au cours des 4 années qui suivent, 600 unités seront vendues à 75000$ pièce, principalement aux chaines de télévision.
Et ainsi de suite jusqu'à l'introduction des médias d'enregistrement optique, qui vont progressivement supplanter les bandes, et sont en voie d'être eux-mêmes rangés au rayon des accessoires par les dispositifs à semi-conducteurs (Solid State Devices ou SSD). De toutes façons, production, post-production et diffusion sont aujourd'hui pour l'essentiel tapeless.
 Voici donc un tableau qui reprend quelques unes des dates importantes dans l'avènement des techniques d'enregistrement et de reproduction en vidéo.

    (Copyright : Karl Paulsen)

Une autre chronologie qui montre bien le rythme de la progression des supports d'enregistrement, en densité et en rapidité, est celle des disques magnétiques, appelés plus communément "disques durs". Ces dispositifs sont devenus progressivement essentiels en vidéo et cinéma numérique, en raison d'une part de la transformation des flux vidéo en fichiers ("films have become files" comme le dit si bien David Bordwell), et d'autre part en raison de la quantité sans cesse croissante des volumes de données à traiter.
Concernant ce dernier point, il faut bien remarquer cependant que la progression des technologies de compression, au même titre que l'accroissement des capacités des disques magnétiques, sont probablement les facteurs premiers ayant permis la numérisation de l'ensemble de la chaine de production du cinéma et le passage d'un ensemble de procédés analogiques réalisés en laboratoire à un flux de travail qui se déroule essentiellement dans les salles de post-production. Exit donc, à très court terme, le laboratoire et les copies de travail, et nous voici au stade où l'ingest, à partir des fichiers déjà soigneusement gérés par le DIT (Digital Image Technician) et le Data Wrangler, va permettre de réaliser un "positif" numérique qui, après conformation ira se loger dans un DCDM (Digital Cinema Distribution Master) prêt à être expédié dans les salles...
Voici donc un deuxième tableau qui montre la progression météorique des capacités des supports magnétiques au cours des cinquante dernières années. Et ce n'est pas terminé, puisque la prochaine étape consistera à stocker sur SSD en tournage (c'est déjà le cas, souvent) et à sauvegarder sur le Cloud.

    (Copyright Karl Paulsen)

Le livre de Paulsen consacre tout naturellement un chapitre entier au développement de ces dispositifs d'enregistrement à semi-conducteurs, que la baisse des coûts depuis un an ou deux a rendus omniprésents dans le monde de  la production ciné-vidéo. Il faut donc tout naturellement observer que les dispositifs de lecture-enregistrement à base de SSD connaissent aujourd'hui un succès très important et offrent des avantages non négligeables, par rapport aux disques durs classiques et aux lecteurs à disque magnéto-optique en raison, en particulier, de leur consommation énergétique plus réduite, des temps d'accès réduits et d'une bonne résistance aux chocs.
La baisse des prix ne fait qu'accélérer leur implantation dans "l'industrie", et le remplacement complet des systèmes actuels de serveurs et de stockage de Big Data se fera sans doute dans un avenir pas très lointain - à moins que la production mondiale de semi-conducteurs connaisse un ralentissement important du fait de difficultés dans les pays producteurs...
Paulsen fait donc, dans ce chapitre du livre, un point sur l'histoire et le développement des mémoires flash, qui sont la forme du média tel qu'il est utilisé dans les SSD. 
Il développe ensuite une discussion autour des composants, de la structure des cellules et des modes opératoires des mémoires flash, avant de mettre en relief les avantages et les limites de ces types de dispositifs.
Sur un plan plus strictement technique, il s'attache à démontrer les applications et les différences entre mémoires de type NOR et NAND, comment la protection des données et les questions de sécurité sont gérées dans les SSD, et enfin les principales applications des mémoires flash et des composants alliés dans un SSD.
Un autre chapitre, très intéressant, concerne le développement et l'utilisation des formats de fichiers et en particulier des conteneurs (wrappers) en production et post-production. Ces questions ne sont d'ailleurs pas toujours très bien comprises par les professionnels eux-mêmes et sont une conséquence du développement de la compression vidéo et de son utilisation dans les systèmes de montage non-linéaire (NLE). La multiplication des plateformes et des systèmes concurrents ont montré le besoin d'une standardisation des formats de fichiers. Le développement de formats incompatibles entre eux en production et en diffusion ont créé des problèmes qu'il fallait résoudre chaque fois qu'un nouveau format d'encodage était introduit. C'est ainsi qu'il a fallu mettre en place des plateformes et des systèmes de transcodage, pour convertir ou traduire un format de média vers un autre. Il a donc fallu créer des "formats de fichiers" (à ne pas confondre avec les systèmes de fichiers) que l'on peut décrire comme étant des structures créés à partir des médias eux-mêmes - qui sont généralement compressés, d'une manière ou d'une autre.
La discussion concernera ensuite le développement des codecs qui sont, comme chacun sait, des dispositifs, hardware ou software, qui convertissent les fichiers de médias du domaine non-compressé au domaine compressé (compresseur) ou l'inverse (décompresseur). La solution matérielle, configurée autour d'un serveur de médias classique, consistera à transporter les flux audio et vidéo dans leurs formats standards (SMPTE 259M ou 292M) le long d'un système qui effectuera successivement ingest, transcode et playback dans le format d'origine. Ce qui donne le diagramme suivant :

On retiendra aussi la discussion autour des conteneurs ou "wrapper" : l'élément de base dans une structure de fichiers multimédia comprend des ensembles d'audio, de vidéo et de données, qui sont considérés comme des "essences". L'audio consistera généralement en plusieurs pistes, individuelles ou appairées. La vidéo peut être des images fixes ou en mouvement, dans des résolutions pouvant aller jusqu'à la HD, 2K, 4K. L'information, telle que le time code et les descriptions de prises de vue.
Lorsque ces ensembles d'essences sont combinés avec les métadonnées associées, ils forment un "contenu". Pour permettre de déplacer ces paquets de contenus, devenus des fichiers, dans uun système, ils sont enveloppés dans un "conteneur" ou "wrapper". Ces procédures peuvent prêter à confusion, car les conteneurs sont souvent considérés comme des descripteurs de formats de fichiers ou d'extension. On trouvera par exemple des ".MOV wrapped" ou des ".MXF wrapped".
Suit une discussion du Material eXchange Format (MXF) développé à la suite des efforts du SMPTE. Ce conteneur trouve son origine vers le milieu des années 1990, au moment où il est apparu que la convergence entre IT (technologies de l'information) et audiovisuel se ferait dans les années suivantes. Le développement des systèmes de montage non-linéaires et des serveurs vidéo impliquait une interopérabilité entre systèmes et le transfert des fichiers d'un système à un autre.
L' EBU et le SMPTE travaillèrent alors conjointement pour proposer un cadre de propositions pour l'implantation de nouvelles structures permettant l'interopérabilité entre des systèmes hétérogènes. Le travail donna lieu à une publication en juillet 1998 sous le titre : "Task Force for Harmonized Standards for the Exchange of Programme Material as Bitstreams". Ce travail insistait tout particulièrement sur la nécessité de réaliser la standardisation des conteneurs et des métadonnées. Ce conteneur standard qui est apparu alors a pris le nom de MXF.
Structure d'un fichier MXF de base : Un en-tête (File Header), suivi par le corps (File Body) qui contient les essences et le footer qui clôt le fichier et permet de répéter les métadonnées d'en-tête.
Je n'irai pas plus loin dans cette description des fichiers MXF. Il faut savoir cependant que ce format sert de conteneur à des codecs aussi variés que le MPEG2 utilisé par Sony dans ses caméras, l'AVC Intra utilisé par Panasonic, mais aussi pour le transport dans les DCP des fichiers image et son utilisés pour la diffusion du cinéma en numérique.
A noter aussi que l'EBU et le SMPTE ont formé en avril 2013 une nouvelle "task force" (conjointement avec le VSF ou Video Services Forum) appelée Joint Task Force on Networked Media (JT-NM) dont l'objet est  de permettre de développer de nouvelles infrastructures autour de l'échange et la distribution de médias en réseau. Son objectif sera de définir une stratégie pour le développement d'une infrastructure de réseau pour les professionnels de l'industrie des médias. Il s'agira donc d'assurer l'interopérabilité et la distribution des médias, à la fois sous forme de fichiers ou en streaming, sur une échelle locale, régionale et globale.
On voit donc clairement que, le passage d'une logique de flux stockés localement sur bande à une infrastructure dans laquelle ce sont des fichiers qui sont échangés sur des réseaux informatiques est en voie d'être standardisé, avec très clairement un objectif de délocalisation de la masse des fichiers échangés vers une structure que l'on appelle aujourd'hui le Cloud.
Cependant, la production en "live" continue pour l'essentiel à utiliser du hardware spécialisé et des interfaces SDI ou HD-SDI. Les diffuseurs ont toujours besoin de gérer leurs flux de travail avec des temps de latence réduits au minimum, et une fiabilité maximale, ce qui explique pourquoi ce sont des technologies matures qui prédominent. Toutefois, avec les progrès réalisés dans les transmissions par paquets, et avec le 10 Gigabits Ethernet devenu plus abordable (et les 40 GigE et 100 GigE qui arrivent), il devient réaliste de parler du passage de la production live dans une architecture de réseau unifiée pour l'ensemble de la chaine de production. Ce qui donne le schéma d'évolution suivant :


 (EBU Technology Fact Sheet, septembre 2013)