dimanche 12 janvier 2014

Sur le cinéma, les études cinématographiques et quelques thèmes qui s'y rapportent (1ère partie)



Ce texte est une introduction à la lecture du livre de David N. Rodowick, The Virtual Life of Film (2007), un ouvrage qui, me semble-t-il, pose la plupart des questions concernant le devenir d'une certaine manière de penser le cinéma au moment où les structures mêmes du cinéma, en tant qu'expérience individuelle ou collective, sont en train de changer de manière fondamentale.
La théorie du cinéma (film theory pour les anglophones) s'est concentrée en général autour de l'esthétique et de la psychologie d'une part, de l'histoire du cinéma d'autre part. Il faut cependant considérer qu'elle connait aujourd'hui une évolution notable vers une réflexion tendant à inclure les "nouveaux médias", ce qui reste une manière encore assez vague de caractériser l'ensemble du champ ouvert par les évolutions technologiques en cours depuis une dizaine d'années maintenant. David N. Rodowick appelle ainsi à fonder une "théorie des images en mouvement et des nouveaux médias" tout en constatant, avec une certaine ironie, que les études cinématographiques ont reçu une certaine reconnaissance au sein de l'université, en tant que domaine de recherche légitime, au moment où l'objet même de ces recherches n'existe plus (p.26). D'où la question du théoricien du film : "What becomes of cinema studies if film should disappear ? Perhaps this is a question that only film theory can answer" (p.3). Il faut sans doute alors poser à nouveau la question "Qu'est-ce que le cinéma ?" comme expérience d’un art technologique fondé sur la fabrication et la restitution d’une certaine catégorie d’images en mouvement (ou comme Rodowick l'écrit : What was cinema ?"). La réponse passe sans doute par une nouvelle définition des arts de la représentation avec des images animées, alors qu'on n'a jamais connu autant de difficultés pour définir "le fondement ontologique du cinéma" (p.12).
Ce problème concerne peut-être aussi la difficulté à définir le cinéma en tant qu'art, c'est à dire à travers "la nécessité de définir les possibilités artistiques du médium en montrant l'originalité de son fondement ontologique dans un principe esthétique premier qui dérive d'une longue tradition dans l'histoire de la philosophie" (p.12) puisque, malgré la déconstruction opérée au sein des formes plastiques depuis plus d'un siècle, notre culture ne s'est pas débarrassée de l'instinct qui consiste à valoriser l'Art de cette façon. Il y a, reconnait Rodowick, quelque chose dans le rapport du film avec l'espace et le temps qui perturbe les hiérarchies et les valeurs émises par l'esthétique moderne.
Cette difficulté à situer le film dans un champ d'études théoriques n'a pas débuté avec sa "virtualisation" par l'image numérique. Du point de vue de l'esthétique moderne, la littérature ou la sculpture, ou encore la peinture, ont une stabilité ontologique relativement rassurante. Leur statut en tant qu'objets esthétiques semble pour le moins évident. Pourquoi alors le film est-il si difficile à caractériser lui-même en tant qu'objet d'investigation esthétique ? Peut-être, nous dit alors Rodowick, "parce qu'il a été le premier medium à remettre fondamentalement en question les concepts même de l'esthétique. Jusqu'à l'émergence du cinéma, la plupart des arts pouvaient être classés selon la distinction due à Gotthold Ephraim Lessing 1766 entre arts de la succession - le temps - et arts de la simultanéité - l'espace" (p.13). Le paradoxe de l'expérience filmique est cependant qu'elle prend place à la fois dans un continuum spatial et dans la durée. Le cinéma a une nature hybride : il combine à la fois des images et des sons, des paroles et de l'écrit.
Quelque part, la suspicion - ou l'angoisse - due au fait que la nature esthétique du cinéma pouvait être mise en question était due à cette nature hybride du film, à la fois art de l'espace et art du temps. Cette difficulté est encore plus visible dans la théorie esthétique moderne où, selon Nelson Goodman, on privilégie en général ce qu'il appelle les "arts autographiques". Ce sont les arts de la signature, c’est-à-dire les arts définis par le contact physique de la main de l’artiste. L’œuvre produite est définitive lorsque l’artiste a terminé son travail, et elle est unique. Il n’y a qu’un seul original.
A l’opposé, Goodman distingue les arts allographiques, dont la musique est l’exemple type, et où il faut distinguer entre l’acte de création – la composition musicale – et la performance. Le film partage avec la musique une situation dans laquelle l’acte de création – le concept, pourrait-on dire, ou le scénario – est séparé de l’exécution – c’est-à-dire le tournage. Le film est, tout comme la musique, une création à deux étapes (two stage process) voire plus. Mais, contrairement à la musique, où la notation en composition peut servir d’acte garantissant la signature de l’auteur, le cinéma, au même titre d’ailleurs que la photographie, peine à distinguer la copie de l’original. Car ici même, ce sont les procédés de reproduction technologiques qui créent une ambiguïté quand à la nature de l’œuvre. Rodowick cite d’ailleurs l’exemple de Citizen Kane, dont la copie originale a été perdue. Dès lors, nous dit-il, doit-on considérer que toutes les copies existantes ne sont que des imitations ? Et ceci avant même de pouvoir répondre à la question de l’attribution du film à son auteur. Mais qui serait-il ? Le scénariste ou bien plutôt le réalisateur qui l’a porté en scène et permis une interprétation des différents éléments du scénario ? Et comment cette question de l’auteur peut-elle se décliner dans un univers de production dans lequel les intervenants sont de plus en plus nombreux et spécialisés dans des techniques de création complexes, renvoyant ainsi le réalisateur au rang de gestionnaire d’un ensemble qui comprend plusieurs niveaux de conception et d’exécution ? C’est évidemment le cas aujourd’hui des images de synthèse et des effets spéciaux omniprésents dans la plupart des films, à commencer par le film publicitaire ou le clip. Leur niveau d’expertise est tel, qu’il devient difficile à toute personne qui n’a pas suivi un cursus spécialisé, ou qui n’a pas déjà une certaine expérience de leur conception, d’imaginer simplement ce qu’il est possible de faire dans une situation donnée.
Revenons à la question posée par Rodowick, celle qui concerne la disparition d’une certaine forme d’expérience du cinéma et l’avènement simultané des études cinématographiques dans le champ de la recherche académique. Bien qu’il s’agisse d’appréciations concernant avant tout le monde universitaire anglo-saxon on pourrait, sans y apporter trop de modifications, poser la même question en France, puisqu’il s’agit avant tout, dans l’appréciation de Rodowick, de reconnaitre le moment à partir duquel ces enseignements ont acquis d’une certaine manière une légitimité.
On voit bien, en effet, que ce moment est concomitant de l’apparition de nouveaux procédés technologiques qui introduisent une nouvelle manière de regarder et d’analyser les films. On peut, bien sûr, remonter à la diffusion du magnétoscope et de la cassette vidéo pour dater le début d’une transformation radicale de l’expérience du cinéma, puisqu’à partir de ce moment, et plus encore avec le DVD et les fichiers téléchargeables sur Internet, il est devenu possible de regarder n’importe quel film chez soi, confortablement installé dans son salon, et surtout d’en programmer la diffusion dans son intégralité ou par parties.
Bien entendu il ne s’agit plus de l’expérience canonique du film projeté en salle, dans l’obscurité et d’un seul tenant, sans que l’on ait la possibilité d’en interrompre la projection, ne fut-ce que quelques instants. Mais en quoi cela ne serait pas du cinéma ? Ce qui me parait plus important, et peut-être est-ce aussi une conséquence indirecte de ces nouveaux dispositifs, c’est la disparition progressive d’une certaine cinéphilie – tout à fait caractéristique d’ailleurs de l’auteurisme et du clubisme à la française (pardon pour les néologismes) – pour laisser la place à un consommateur archiviste, isolé devant son écran. Car il faut aussi prendre en considération le fait que de nouvelles formes d’expérience filmique sont apparues, les séries en particulier, qui ne sont pas destinées à être projetées en salle, et dont la structure narrative et la construction visuelle (cadre et valeurs de plan, mais aussi la couleur et le format de l’image) sont calibrées pour des écrans de petite taille, ainsi que le réglage de l’image (le contraste en particulier).
Par ailleurs, et c’est Rodowick cette fois qui l’écrit, l’idée selon laquelle il y aurait quelque chose d’ontologiquement unique à propos du matériau photographique et du film lui-même ne tient pas. Noël Carroll voit d’ailleurs toute cette évolution prendre place dans une histoire plus large des images en mouvement, dont le film lui-même ne serait qu’une phase (Theorizing the Moving Image, 1996).
La question que pose alors le livre : qu’est-ce qu’a été le cinéma ? (What was cinema ?) et ce qu’il en reste aujourd’hui. Quelles transformations a-t-il subies en se fondant dans « le monde électronique et virtuel des manipulations numériques ? » (p.31). Le cinéma, et par voie de conséquence l’expérience du spectateur, en devenant entièrement un art du numérique, a-t-il ainsi définitivement perdu sa dimension d’art du spectacle, qui se manifestait dans une sorte de matériau originel unique destiné à la projection dans certaines conditions seulement ?
Remarquons, tout d’abord, que Rodowick opère une distinction entre le médium en tant que tel (le film, la vidéo) et son support physique et la diffusion (distribution, dans le terme anglais) : les supports vidéo, la compression numérique, la télévision broadcast et Internet fonctionnent comme des canaux de transmission sur lesquels un même film pourra être visionné. La distinction entre film et vidéo, ou entre analogique et numérique comme porteurs de l’information n’est pas suffisante pour caractériser le médium. La question qui se pose alors est la suivante : les différentes catégories d’images animées sont-elles à mettre en relation avec des environnements de visionnage spécifiques ? La réponse de l’auteur est sans ambiguïté : de manière intuitive, les images électroniques ne sont pas du « cinéma » ; elles ne permettent pas de produire les conditions sociales et psychologiques d’un certain spectacle de cinéma.
Cette affirmation est à rapprocher des appréciations de Raymond Bellour et de Jacques Aumont, pour qui la salle obscure est le lieu par excellence de l’expérience de cinéma. Ainsi, pour Bellour, « la projection d’un film en salle, dans le noir, le temps prescrit d’une séance plus ou moins collective, est devenue et reste la condition d’une expérience unique de perception et de mémoire, définissant son spectateur et que toute situation autre de vision altère plus ou moins. Et cela seul vaut d’être appelé cinéma ». 
Question posée aussi par Rodowick : « Do moving-image media have special affinities with specific viewing environments ? », et l’auteur insiste sur la spécificité de l’expérience de la projection en salle. Tout en argumentant sur le fait que les images électroniques « ne sont pas du cinéma », il se demande si « un média est une substance, un instrument ou simplement un canal de transmission (channel) ? ». Ceci signifie qu’un média devrait être distingué du support physique qui le compose et du canal de transmission. La vidéo numérique, l’encodage MPEG-2 ou 4, la télévision broadcast ou Internet fonctionnent comme des canaux de diffusion, à travers lesquels un même objet (disons M le maudit, de Fritz Lang) pourra être regardé. En supposant des conditions optimum de transfert et de visionnage, « les différences de forme entre les versions film et vidéo de M ne seront pas plus significatives que des variations parmi les copies 16 ou 35mm. La distinction entre film et vidéo ou entre analogique et numérique comme porteurs de l’information n’est peut-être pas suffisante pour clarifier des questions telles que « qu’est-ce qu’un média ? » et « ceci a-t-il une importance ? ». Pour des films tels que Shrek ou Star Wars 2 : Attack of the Clones, le celluloïd n’est rien d’autre que le média de diffusion, une manière de projeter les films en utilisant les équipements existants même s’il serait préférable de regarder ces artefacts en utilisant des moyens de projection électroniques et numériques » (p.32). Il est difficile toutefois de reconnaitre une spécificité au média cinématographique, car le film fonctionne avant tout en tant qu’objet hybride, utilisant plusieurs composants, et qui ne peut pas être assimilé à un art du spectacle, au même titre que le théâtre par exemple. Ceci explique son originalité et la difficulté à le caractériser à travers des éléments et des formes intangibles, en utilisant des définitions essentialistes.

dimanche 5 janvier 2014

Une histoire des technologies d'enregistrement en vidéo

S'il est un domaine absolument essentiel dans le développement de la télévision et du cinéma numérique c'est bien celui des technologies d'enregistrement des sons et des images animées, et l'histoire du développement des supports et des systèmes utilisés.
Or, on s'aperçoit très vite lorsqu'on cherche des informations à ce sujet, que celles-ci restent confinées dans des cercles étroits de spécialistes ou, au mieux, dans une documentation technique partielle et, le plus souvent rapidement rendue obsolète par les progrès très rapides réalisés dans ces domaines.
Signalons tout de même le blog de Daniel Renard (très intéressant d'ailleurs), qui consacre une page à l'enregistrement vidéo sur magnétoscope Ampex, et les livres de Guy Chesnot, tout particulièrement le dernier : Cloud Computing, Big Data, Parallélisme, Hadoop, qui ne traite pas cependant du cas spécifique de la vidéo, ce qu'il fait en revanche dans un livre plus ancien, Solutions Informatiques pour la Vidéo, désormais épuisé chez l'éditeur.



Il est donc difficile de trouver une somme qui rende compte de l'ensemble des évolutions dans ces domaines, et c'est pourquoi la récente parution du livre de Karl Paulsen, Moving Media Storage Technologies, est intéressante à plus d'un titre.
On notera tout d'abord que ce livre est une solide revue de l'ensemble des technologies d'enregistrement dédiées à l'audio et à l'image, numériques ou analogiques. Mais non content d'être une somme essentielle qui rend compte de l'état de l'art dans ces domaines, le livre nous propose aussi des chronologies du développement des médias et des technologies, ce qui permet de retracer en creux un aperçu intéressant de l'histoire de ces techniques, que d'autres ouvrages ont pu évoquer : on peut citer, par exemple, Video Recording Technology, de Aaron Foisi Nmungwun, qui commence à dater cependant (1989), mais qui adopte une perspective historique et socio-technique plutôt intéressante.
Quelques étapes dans la chronologie des techniques et des médias d'enregistrement :
1877- Edison effectue le premier enregistrement d’une voix sur son phonographe à cylindre
1898- Valdemar Poulsen (Danemark) dépose le brevet du télégraphone, le premier enregistreur magnétique qui utilise un ruban métallique
1925 - Mise en vente des premiers disques enrtegistrés électriquement et des premiers phonographes orthophoniques
1948 - Les premiers enregistreurs Ampex 200 à bande sont utilisés sur le Bing Crosby Show, et l'enregistrement est effectué sur bande d'acétate 3M Scotch 111
1951 - Une équipe sous la direction de Charles Ginsburg commence à travailler chez Ampex sur la conception d'un enregistreur vidéo à bande. 
1953 - Vladimir K. Zworykin et les Laboratoires RCA font la démonstration d'un VTR à défilement longitudinal et ayant trois têtes d'enregistrement, capable d'enregistrer à la vitesse de 360 in./sec. avec un son modulé en amplitude (AM)
1956 - Ampex effectue une démonstration du premier VTR enregistrant en quadruplex au NAB, en avril. Ce "quad" utilise des bandes 3M de 2 pouces qui tournent à la vitesse de 15 pouces/sec. sur une tête rotative. Au cours des 4 années qui suivent, 600 unités seront vendues à 75000$ pièce, principalement aux chaines de télévision.
Et ainsi de suite jusqu'à l'introduction des médias d'enregistrement optique, qui vont progressivement supplanter les bandes, et sont en voie d'être eux-mêmes rangés au rayon des accessoires par les dispositifs à semi-conducteurs (Solid State Devices ou SSD). De toutes façons, production, post-production et diffusion sont aujourd'hui pour l'essentiel tapeless.
 Voici donc un tableau qui reprend quelques unes des dates importantes dans l'avènement des techniques d'enregistrement et de reproduction en vidéo.

    (Copyright : Karl Paulsen)

Une autre chronologie qui montre bien le rythme de la progression des supports d'enregistrement, en densité et en rapidité, est celle des disques magnétiques, appelés plus communément "disques durs". Ces dispositifs sont devenus progressivement essentiels en vidéo et cinéma numérique, en raison d'une part de la transformation des flux vidéo en fichiers ("films have become files" comme le dit si bien David Bordwell), et d'autre part en raison de la quantité sans cesse croissante des volumes de données à traiter.
Concernant ce dernier point, il faut bien remarquer cependant que la progression des technologies de compression, au même titre que l'accroissement des capacités des disques magnétiques, sont probablement les facteurs premiers ayant permis la numérisation de l'ensemble de la chaine de production du cinéma et le passage d'un ensemble de procédés analogiques réalisés en laboratoire à un flux de travail qui se déroule essentiellement dans les salles de post-production. Exit donc, à très court terme, le laboratoire et les copies de travail, et nous voici au stade où l'ingest, à partir des fichiers déjà soigneusement gérés par le DIT (Digital Image Technician) et le Data Wrangler, va permettre de réaliser un "positif" numérique qui, après conformation ira se loger dans un DCDM (Digital Cinema Distribution Master) prêt à être expédié dans les salles...
Voici donc un deuxième tableau qui montre la progression météorique des capacités des supports magnétiques au cours des cinquante dernières années. Et ce n'est pas terminé, puisque la prochaine étape consistera à stocker sur SSD en tournage (c'est déjà le cas, souvent) et à sauvegarder sur le Cloud.

    (Copyright Karl Paulsen)

Le livre de Paulsen consacre tout naturellement un chapitre entier au développement de ces dispositifs d'enregistrement à semi-conducteurs, que la baisse des coûts depuis un an ou deux a rendus omniprésents dans le monde de  la production ciné-vidéo. Il faut donc tout naturellement observer que les dispositifs de lecture-enregistrement à base de SSD connaissent aujourd'hui un succès très important et offrent des avantages non négligeables, par rapport aux disques durs classiques et aux lecteurs à disque magnéto-optique en raison, en particulier, de leur consommation énergétique plus réduite, des temps d'accès réduits et d'une bonne résistance aux chocs.
La baisse des prix ne fait qu'accélérer leur implantation dans "l'industrie", et le remplacement complet des systèmes actuels de serveurs et de stockage de Big Data se fera sans doute dans un avenir pas très lointain - à moins que la production mondiale de semi-conducteurs connaisse un ralentissement important du fait de difficultés dans les pays producteurs...
Paulsen fait donc, dans ce chapitre du livre, un point sur l'histoire et le développement des mémoires flash, qui sont la forme du média tel qu'il est utilisé dans les SSD. 
Il développe ensuite une discussion autour des composants, de la structure des cellules et des modes opératoires des mémoires flash, avant de mettre en relief les avantages et les limites de ces types de dispositifs.
Sur un plan plus strictement technique, il s'attache à démontrer les applications et les différences entre mémoires de type NOR et NAND, comment la protection des données et les questions de sécurité sont gérées dans les SSD, et enfin les principales applications des mémoires flash et des composants alliés dans un SSD.
Un autre chapitre, très intéressant, concerne le développement et l'utilisation des formats de fichiers et en particulier des conteneurs (wrappers) en production et post-production. Ces questions ne sont d'ailleurs pas toujours très bien comprises par les professionnels eux-mêmes et sont une conséquence du développement de la compression vidéo et de son utilisation dans les systèmes de montage non-linéaire (NLE). La multiplication des plateformes et des systèmes concurrents ont montré le besoin d'une standardisation des formats de fichiers. Le développement de formats incompatibles entre eux en production et en diffusion ont créé des problèmes qu'il fallait résoudre chaque fois qu'un nouveau format d'encodage était introduit. C'est ainsi qu'il a fallu mettre en place des plateformes et des systèmes de transcodage, pour convertir ou traduire un format de média vers un autre. Il a donc fallu créer des "formats de fichiers" (à ne pas confondre avec les systèmes de fichiers) que l'on peut décrire comme étant des structures créés à partir des médias eux-mêmes - qui sont généralement compressés, d'une manière ou d'une autre.
La discussion concernera ensuite le développement des codecs qui sont, comme chacun sait, des dispositifs, hardware ou software, qui convertissent les fichiers de médias du domaine non-compressé au domaine compressé (compresseur) ou l'inverse (décompresseur). La solution matérielle, configurée autour d'un serveur de médias classique, consistera à transporter les flux audio et vidéo dans leurs formats standards (SMPTE 259M ou 292M) le long d'un système qui effectuera successivement ingest, transcode et playback dans le format d'origine. Ce qui donne le diagramme suivant :

On retiendra aussi la discussion autour des conteneurs ou "wrapper" : l'élément de base dans une structure de fichiers multimédia comprend des ensembles d'audio, de vidéo et de données, qui sont considérés comme des "essences". L'audio consistera généralement en plusieurs pistes, individuelles ou appairées. La vidéo peut être des images fixes ou en mouvement, dans des résolutions pouvant aller jusqu'à la HD, 2K, 4K. L'information, telle que le time code et les descriptions de prises de vue.
Lorsque ces ensembles d'essences sont combinés avec les métadonnées associées, ils forment un "contenu". Pour permettre de déplacer ces paquets de contenus, devenus des fichiers, dans uun système, ils sont enveloppés dans un "conteneur" ou "wrapper". Ces procédures peuvent prêter à confusion, car les conteneurs sont souvent considérés comme des descripteurs de formats de fichiers ou d'extension. On trouvera par exemple des ".MOV wrapped" ou des ".MXF wrapped".
Suit une discussion du Material eXchange Format (MXF) développé à la suite des efforts du SMPTE. Ce conteneur trouve son origine vers le milieu des années 1990, au moment où il est apparu que la convergence entre IT (technologies de l'information) et audiovisuel se ferait dans les années suivantes. Le développement des systèmes de montage non-linéaires et des serveurs vidéo impliquait une interopérabilité entre systèmes et le transfert des fichiers d'un système à un autre.
L' EBU et le SMPTE travaillèrent alors conjointement pour proposer un cadre de propositions pour l'implantation de nouvelles structures permettant l'interopérabilité entre des systèmes hétérogènes. Le travail donna lieu à une publication en juillet 1998 sous le titre : "Task Force for Harmonized Standards for the Exchange of Programme Material as Bitstreams". Ce travail insistait tout particulièrement sur la nécessité de réaliser la standardisation des conteneurs et des métadonnées. Ce conteneur standard qui est apparu alors a pris le nom de MXF.
Structure d'un fichier MXF de base : Un en-tête (File Header), suivi par le corps (File Body) qui contient les essences et le footer qui clôt le fichier et permet de répéter les métadonnées d'en-tête.
Je n'irai pas plus loin dans cette description des fichiers MXF. Il faut savoir cependant que ce format sert de conteneur à des codecs aussi variés que le MPEG2 utilisé par Sony dans ses caméras, l'AVC Intra utilisé par Panasonic, mais aussi pour le transport dans les DCP des fichiers image et son utilisés pour la diffusion du cinéma en numérique.
A noter aussi que l'EBU et le SMPTE ont formé en avril 2013 une nouvelle "task force" (conjointement avec le VSF ou Video Services Forum) appelée Joint Task Force on Networked Media (JT-NM) dont l'objet est  de permettre de développer de nouvelles infrastructures autour de l'échange et la distribution de médias en réseau. Son objectif sera de définir une stratégie pour le développement d'une infrastructure de réseau pour les professionnels de l'industrie des médias. Il s'agira donc d'assurer l'interopérabilité et la distribution des médias, à la fois sous forme de fichiers ou en streaming, sur une échelle locale, régionale et globale.
On voit donc clairement que, le passage d'une logique de flux stockés localement sur bande à une infrastructure dans laquelle ce sont des fichiers qui sont échangés sur des réseaux informatiques est en voie d'être standardisé, avec très clairement un objectif de délocalisation de la masse des fichiers échangés vers une structure que l'on appelle aujourd'hui le Cloud.
Cependant, la production en "live" continue pour l'essentiel à utiliser du hardware spécialisé et des interfaces SDI ou HD-SDI. Les diffuseurs ont toujours besoin de gérer leurs flux de travail avec des temps de latence réduits au minimum, et une fiabilité maximale, ce qui explique pourquoi ce sont des technologies matures qui prédominent. Toutefois, avec les progrès réalisés dans les transmissions par paquets, et avec le 10 Gigabits Ethernet devenu plus abordable (et les 40 GigE et 100 GigE qui arrivent), il devient réaliste de parler du passage de la production live dans une architecture de réseau unifiée pour l'ensemble de la chaine de production. Ce qui donne le schéma d'évolution suivant :


 (EBU Technology Fact Sheet, septembre 2013)