Affichage des articles dont le libellé est David Bordwell. Afficher tous les articles
Affichage des articles dont le libellé est David Bordwell. Afficher tous les articles

mardi 3 mars 2015

Boyhood et Birdman : deux variations sur le temps au cinéma

Voilà deux films, Boyhood de Richard Linklater, et Birdman, d'Alejandro Iñaritu, qui abordent, chacun à sa manière, la question de la durée au cinéma : temps de la projection, durée du tournage, durée du plan et de la séquence, et contraction ou dilatation au montage... par les deux bouts opposés pourrait-on dire.
Dans le premier, c'est la question de la représentation de la longue période au cinéma qui est posée. L'action, l'histoire toute entière, se déroule sur plusieurs années et le problème est résolu dirions-nous par une sorte d'homothétie qui fait correspondre le temps du tournage à la durée de l'histoire telle qu'elle est racontée, soit plus ou moins une douzaine d'années.
Dans le deuxième cas, l'action toute entière est concentrée autour d'une période très précise, celle qui sépare la générale d'une pièce de théâtre de sa première représentation (six jours). Tout le dispositif mis en place consiste à nous faire croire que ce moment, cette séquence d'évènements, plus ou moins réels, qui tourne autour de la question de la rédemption ou de la chute d'un personnage, est entièrement tournée en un seul plan, sans jamais arrêter la caméra.
Bien évidemment, le spectateur se rend bien compte que ce n'est pas le cas puisque, à deux reprises on passe du jour à la nuit et l'inverse, et que ce passage du temps est suggéré par des effets de montage ou de time lapse. Sans compter la rupture qui a lieu, à la fin du film, lorsqu'on retrouve Riggan à l'hôpital.
Dans un cas, l'effet produit par la dilatation du temps correspond en réalité à des coupes arbitraires, résultants de choix de mise en scène, réalisées dans le but de faire tenir les douze années dans le temps d'une projection de 2 heures 30.
Dans le deuxième film il faut au contraire donner l'impression que la caméra ne s'arrête jamais de tourner, et ce pendant un laps de temps au cours duquel la durée de l'action est supposée équivalente au temps de la projection. On connait peu de films où c'est réellement le cas. J'en ai vu personnellement deux seulement : L'Arche russe, d'Alexandre Sokourov, sorti en 2002 et tourné en HD et Timecode, de Mike Figgis, tourné le 19 novembre 1999, durant une heure et demie au cours de laquelle les acteurs improvisent autour de situations pré-établies et minutées. L'originalité du film de Mike Figgis réside dans le fait que quatre situations sont filmées en même temps et leurs histoires s'entrecroisent, sans que jamais une équipe soit filmée par une autre, le résultat étant projeté sur un écran divisé en quatre parties projetant l'image de chaque caméra, sans montage vidéo, mais avec un mixage audio qui privilégie tel ou tel cadre en particulier (là aussi un choix de réalisation).
Dans ces deux cas le dispositif de type "temps réel" joue à plein (et s'il ne s'agit pas d'informatique, où le calcul hyper rapide va nous donner l'illusion d'un écoulement continu, on peut dire qu'avec les moyens traditionnels du cinéma la perception du fractionnement disparait aussi grâce à la cadence de prise de vue et de projection des images). Contrairement aux films de Warhol (Empire ou Sleep), contraint par la technique de l'époque à des changements de bobine, il n'y a aucune interruption de la caméra et on peut donc parler d'équivalence entre le temps de tournage et la durée du film projeté.
Il y a une autre caractéristique qui fait la différence entre le film de Linklater et celui d'Iñaritu. Ce sont les moyens de tournage et le contexte socio-économique dans lequel ils sont utilisés, c'est à dire dans le cadre des relations de travail. En effet, dans un milieu, celui de la production cinématographique américaine, où le cadre juridique et économique régissant les relations de travail est très structuré (poids des syndicats, en particulier) il n'aurait pas été possible à Linklater de travailler avec la même équipe tout au long de ces douze années. Ceci a pour conséquence des changements de style et de technique, parfois clairement visibles, parfois moins. On imagine par ailleurs l'engagement des comédiens, sollicités pour se retrouver régulièrement alors que, par ailleurs, ils devaient poursuivre leur carrière et travailler sur d'autres projets en parallèle.
Il est d'ailleurs difficile de trouver un autre exemple de fiction tournée dans un tel cadre. Tout au plus pourra-t-on citer les journaux filmés d'Alain Cavalier et de David Perlov, mais il ne s'agit pas de "fictions" au sens traditionnel du terme.
Dans le film d'Iñaritu les données sont inversées : il s'agit de trouver un dispositif technique qui puisse permettre de tourner "on location" dans un laps de temps réduit. Le fait de disposer d'un espace contraint (le théâtre) et d'une équipe de comédiens qui sortent peu ou pas du tout de cet espace permet déjà d'adapter les moyens de tournage au but recherché. Iñaritu et son Chef opérateur Emmanuel Lubetzki, ont donc choisi d'utiliser des focales assez courtes, mais pas trop (14mm et 18mm) afin de ne pas accentuer les effets de déformation sur les visages lorsque la caméra se rapprochait. Le steadicam était incontournable dans des espaces aussi étroits mais plus important, semble-t-il, c'est l'économie en moyens d'éclairage qui interpelle. On le remarque bien sûr dans toutes les scènes de dialogues prenant place à l'intérieur du théâtre, mais aussi au cours des scènes d'extérieur tournées en pleine nuit, avec cette séquence d'anthologie montrant Michael Keaton en slip blanc, en pleine rue, essayant de rejoindre le théâtre le soir de la générale et reconnu par la foule sur Broadway.  Il faut en effet la flexibilité des moyens de tournage en D-Cinema (Arri Alexa M et XT) pour pouvoir tourner ainsi dans la rue, en pleine nuit.
Mais quels que soient les moyens utilisés, c'est finalement le parti pris documentaire "in the long-run" de Linklater qui semble le plus juste. Il y a un effet de sincérité troublant qui baigne tout ce film, et le fait de voir ainsi changer des personnages et se transformer des corps, séquence après séquence, y est sans doute pour beaucoup.
Pour Iñaritu, le parti pris c'était en quelque sorte celui de la fiction exacerbée, concentrée et portée par l'engagement d'une équipe de comédiens jusqu'au paroxysme du découpage classique hollywoodien... La forme même du film renvoie aux fondamentaux de la représentation au théâtre. Les comédiens doivent bien sûr tout donner d'eux-mêmes et il est intéressant de constater que c'est lorsque Michael Keaton/Birdman apparait presque nu au milieu de la salle et des spectateurs que son rapport à la pièce qu'il interprète s'inverse et qu'il en devient véritablement l'acteur.
Dans Boyhood, les comédiens n'ont pas à jouer de cette distance entre le personnage et celui qui l'incarne : ils sont à la fois le personnage et son incarnation, ils peuvent être complètement eux-mêmes avec les autres, car il se crée ici une familiarité que seule peut donner une fréquentation de longue durée. Ici, la distance avec le personnage interprété n'est pas un enjeu. Il suffit aux comédiens d'être là pour donner à sentir immédiatement le temps qui passe et les transformations qu'il entraine. C'est d'ailleurs la force et le caractère unique de ce film. On voit les effets du temps s'inscrire sur les corps de Mason (Ellar coltrane) et de Mom (Patricia Arquette), et de tous les autres protagonistes d'ailleurs. C'est d'autant plus émouvant que nous savons, sans aucun doute, que ce que nous voyons là c'est ce qui nous arrive aussi (et qui n'arrive pas virtuellement, par les effets du maquillage par exemple).
Mais, au fond, que reste-t-il d'un film lorsqu'il a épuisé son temps dans une salle de spectacle ? Le cinéma n'est-il rien d'autre qu'une métaphore de la vie réelle, celle qu'on voit se dérouler, spectateurs assidus d'un monde rêvé et, parfois, vécu. Celle qui est incarnée par des acteurs et celle dans laquelle nous jouons notre propre rôle. C'est un peu ce que donnent à voir ces films étranges, difficiles à faire entrer dans les catégories habituelles du cinéma commercial, mais dont le succès interroge, une fois de plus, le sens et l'évolution actuelle du cinéma.
Les deux films sont aussi, nous l'avons écrit, des tours de force en termes de technique, de production, de mise en scène et peut-être surtout en raison de l'investissement des comédiens. Boyhood projette cependant ce parfum d'authenticité que n'aura jamais un film réalisé dans les structures de la production "mainstream". Qu'un tel projet soit possible à Hollywood en dit long cependant sur les différences de mentalité entre les Etats-Unis et l'Europe et aussi les limites actuelles des conceptions du cinéma "à la française".
Pour une analyse complète de Birdman : le site de David Bordwell et Kristin Thompson, Observations on film art. (A la fin de l'article, on trouvera un lien pour télécharger le scénario de Birdman)

mercredi 22 octobre 2014

Une femme disparait : à propos d'un thème récurrent dans le cinéma et la littérature en Amérique

Avec ce simple clin d’œil au film éponyme d'Alfred Hitchcock, nous entendons montrer que, bien que ce thème de la disparition mystérieuse, plus ou moins résolue, parcourt de bout en bout la littérature et les adaptations cinématographiques réalisées à Hollywood, il y a une indéniable originalité dans son traitement actuel par des auteurs tels que Gillian Flynn (Gone girl), Laura Kasischke (White Bird in a Blizzard) et Gwendolen Gross (When she was gone). Les deux premiers titres ont donné lieu à des adaptations cinématographiques qui - hasard ? - sortent en même temps.
Gone Girl, réalisé par David Fincher, a la taille requise pour un blockbuster et, d'ailleurs, il était en tête du box-office américain jusqu'à l'arrivée du dernier film du tandem Pitt-Ayer, Fury. White Bird, réalisé par Gregg Araki, a une taille plus modeste et ne semble pas prétendre à une place dans le carré gagnant du loto hollywoodien. Gregg Araki a, de toutes façons, plutôt une réputation indie qui n'a jamais été démentie par ses précédentes réalisations. Spécialiste du film "queer", il s'attaque cette fois à un genre assez différent avec cette adaptation du deuxième roman de Laura Kasischke, publié en 1999.
Dans ces deux films, au contenu très différent mais qui, tous deux explorent le même thématique de la disparition brusque et inexpliquée d'un personnage, les structures narratives qui se mettent en place disposent de repères sensiblement identiques mais, alors que chez Fincher c'est le côté machiavélique et pour tout dire "roublard" du scénario qui permet à la mise en scène (virtuose) de tenir le film sur un fil et le spectateur en haleine, en attente du prochain coup de théâtre qu'il sait inévitable, chez Araki, au contraire il n'y a aucune prétention à vouloir conduire le spectateur vers une explication ni à l'induire en erreur. Au fond, pourrait-on dire, tout était là depuis le début et il suffisait de se donner la peine de regarder pour comprendre les signes que le réalisateur sème tout au long du film, à commencer par la scène (récurrente) dans le blizzard...
Bien sûr, il y a chez Araki le thème de la femme frustrée, perdue dans un univers en décomposition. Mais il est remarquable que cette femme soit toujours évoquée par sa fille, à travers des flashbacks qui au fond n'expliquent pas grand-chose car, on le comprendra avant de le savoir à  coup sûr, les pistes qu'ils donnent sont toutes biaisées en quelque sorte, car il manque toujours l'élément qui permettrait d'effectuer une véritable traversée des apparences.
Gone girl, en revanche, met en scène l'écrasement d'un homme ordinaire confronté à la toute puissance de la rumeur. Et, à travers elle c'est la domination sans partage du système des médias et leur capacité à faire ou à défaire une histoire, qui deviennent en fait le véritable sujet du film.
Car, au fond, on se moque bien de savoir qui est coupable et si même coupable il y a. Dans cette histoire qui devient petit à petit la relation et la mise en exergue délirantes d'un non-évènement, sorte de storytelling où on comprend que les personnages ne sont pas ce qu'ils paraissent être - jusqu'au coup de théâtre qui survient à peu près à la moitié du film - un retournement change définitivement le regard que le spectateur pouvait porter sur les principaux personnages.
Les deux films développent, on l'a dit, un même schéma narratif autour de fréquents recours aux flashbacks, une technique que n'a jamais abandonnée Hollywood - et le cinéma américain en général. Ceci a contrario du cinéma français d'ailleurs, qui peine à se sortir d'un réalisme de façade qui a fini par contaminer ses choix esthétiques les plus fondamentaux.
On pourra toujours comparer, à titre d'exemple, la mise en place de l'image dans le film de Gregg Araki - composition rigoureuse dans laquelle chaque cadre est porteur de sens, nous donne une indication supplémentaire pour démêler l'écheveau de la narration - avec les plans fébriles, filmés par des caméras tenues à bout de bras, de bon nombre de films français, qui limitent leur champ sémantique à la recherche de gros plans de visages, évitant de la sorte toute tentative ou possibilité de réflexion sur le sens même de ces images. En évacuant le décor et la difficulté représentée par une réflexion sur le cadre et les paramètres de la composition, ce cinéma du close-up perpétuel vide l'image de toute possibilité d'interprétation formelle en ne donnant à voir que la façade des visages, qui est en même temps une fermeture. Car ce n'est pas la valeur d'un cadre qui lui donne sa force expressive mais sa composition, l'agencement des éléments qu'il contient, les relations qu'ils expriment et qui sont autant d'indicateurs qui pointent vers d'autres éléments de l'histoire, d'autres interprétations possibles que laisse entrevoir la narration.
C'est, selon nous, un travail figuratif et narratif qui doit s'exprimer dans le travail du cadre au cinéma. Cette obligation de faire du sens à partir de l'image n'a pas changé depuis les débuts du cinéma à vocation narrative, c'est à dire depuis les films de Murnau et Eisenstein, depuis ceux de Bergman et de Jacques Tati, de Stanley Kubrick et de bien d'autres encore. Elle reste l'apanage de quelques cinéastes qui pensent qu'au delà des mots et de l'interprétation littérale, l'image peut véhiculer un sens supplémentaire capable de nous éclairer sur ce qui se met en place dans le déroulement de l'histoire sans qu'il soit nécessaire de tout dire et de tout montrer. Gregg Araki fait partie de ceux-là.
La disparition d'une femme agirait en quelque sorte comme une métaphore désignant une société américaine dans laquelle n'ont plus cours certaines représentations du couple et de la famille - mari et femme, amour filial et solidarité entre les générations - remplacées par la solitude, la violence sexuelle et l'impossibilité de communiquer entre les membres de la famille. Mais alors, se demande-t-on, pourquoi ces familles survivent ? 
C'est aussi la question que semble poser un autre livre, celui de Gwendolen Gross (When She Was Gone), dans lequel cette déconstruction se poursuit en confrontant le vécu de plusieurs familles de la classe moyenne, banlieusarde, après la disparition d'une adolescente sans histoire. C'est ce moment - celui de la disparition et juste après - qui sert de catalyseur à la transformation des relations entre des personnages qu'au fond rien ne prédisposait à se rencontrer, alors même qu'ils se côtoyaient quotidiennement. L'étanchéité des parois de ce système, où l'on vit côte à côte, dans des maisons proches les unes des autres sans jamais se rencontrer, va finir par se fissurer lorsque la jeune fille disparait. Plusieurs histoires sont alors confrontées alors qu'elles se déroulent simultanément, et comme l'adolescente apparait, d'une manière ou d'une autre, dans chacune d'elles, c'est une remise en question de la place de chacun des protagonistes qui a lieu, dans ce qui finira par s'avérer être un non-évènement...
Ce genre de storytelling de la classe moyenne américaine semble être devenu un genre littéraire bien établi, et dont les codes et les thèmes n'ont pas tardé à être récupérés par Hollywood. Une récupération qui ne date pas d'hier d'ailleurs, et que l'on pourrait faire remonter sans doute aux années 1960, avec par exemple le "Lauréat" (The Graduate) de Mike Nichols, film qui fit son petit scandale à l'époque et qui démarra la carrière de Dustin Hoffman. Cette thématique développée autour de la disparition d'une femme a cependant quelque chose d'intrigant - ne serait-ce aussi que parce que ce thème n'a jamais été repris dans le cinéma français - dans la mesure où elle semble participer à la création d'un sous-genre à l'intérieur même de la grande saga familiale américaine.
La disparition des femmes - leur enlèvement ? - était tout de même bien présente dans la culture populaire américaine, qui a toujours consacré une place de choix aux récits véhiculés par les colons partis à la "conquête de l'Ouest" américain au 19ème siècle. Le film de John Ford "La Prisonnière du désert" (The Searchers, 1956) nous montre ainsi, à travers le périple de deux hommes partis à la recherche d'une petite fille enlevée par les Commanches et qu'ils retrouvent des années plus tard, alors qu'elle est devenue la squaw d'un chef indien, comment se transforme progressivement le regard que des hommes portent envers ceux issus d'une culture différente. L'intérêt du film c'est qu'il met un terme à la saga des pionniers en nous montrant le délitement progressif d'un mythe fondateur, véhiculé par la littérature populaire et le cinéma américains, celui de l'étanchéité des cultures et de la supériorité morale des envahisseurs sur les autochtones.



Un article intéressant d'Amanda Klein, paru dans Avidly, le magazine web du Los Angeles Review of Books du 21 octobre 2014 : sous le titre "L'insupportable blancheur des filles disparues" (c'est moi qui traduit), l'auteur met en avant le fait qu'à Hollywood - et dans les médias américains en général - les "disparues" ne sont intéressantes que lorsqu'il s'agit de femmes blanches. Dans le grand emballage narratif des personnes disparues ("the great missing persons narratives"), de Picnic at Hanging Rock (1975) à The Big Lebowski (1998), tout l'édifice repose sur la recherche de femmes blanches disparues. Et au fond, dans les reconstitutions de salles de conférences de presse, bondées de journalistes, de parents éplorés et d'amis plus ou moins réels, tout tourne autour d'une seule et même question : où se trouvent les femmes blanches ? Où sont-elles parties ?
Dans le film de David Fincher, le plan diabolique d'Amazing Amy, qui consiste à se kidnapper elle-même, fonctionne car elle sait qu'avec ses cheveux blonds et son journal intime avec lequel elle voudrait se donner une allure d'adolescente attardée, son absence même compte plus que sa présence. Et, comme l'écrit Amanda Klein, "sa disparition est une menace pour l'Amérique elle-même. Car après tout, si nous ne pouvons même pas retrouver la trace de nos femmes blanches, alors de quoi sommes-nous capables ? Nick Dunne, avec son allure de sac de pommes de terre et son tee shirt fripé, n'est même pas capable de protéger sa femme blanche, ce qui lui vaut le mépris du public" (celui qui regarde Fox News assurément, mais pas seulement).
Effectivement, dans l'Amérique d'Obama comme dans celle des pionniers de la conquête de l'Ouest, le prix d'une femme blanche demeure sensiblement plus élevé que celui d'une femme de couleur...
Enfin, et pour ceux qu'un travail d'analyse approfondi intéresse, signalons celle que David Bordwell consacre au film de Fincher et qu'il vient de publier sur son blog commun avec Kristin Thompson, Observations on film art.

dimanche 5 janvier 2014

Une histoire des technologies d'enregistrement en vidéo

S'il est un domaine absolument essentiel dans le développement de la télévision et du cinéma numérique c'est bien celui des technologies d'enregistrement des sons et des images animées, et l'histoire du développement des supports et des systèmes utilisés.
Or, on s'aperçoit très vite lorsqu'on cherche des informations à ce sujet, que celles-ci restent confinées dans des cercles étroits de spécialistes ou, au mieux, dans une documentation technique partielle et, le plus souvent rapidement rendue obsolète par les progrès très rapides réalisés dans ces domaines.
Signalons tout de même le blog de Daniel Renard (très intéressant d'ailleurs), qui consacre une page à l'enregistrement vidéo sur magnétoscope Ampex, et les livres de Guy Chesnot, tout particulièrement le dernier : Cloud Computing, Big Data, Parallélisme, Hadoop, qui ne traite pas cependant du cas spécifique de la vidéo, ce qu'il fait en revanche dans un livre plus ancien, Solutions Informatiques pour la Vidéo, désormais épuisé chez l'éditeur.



Il est donc difficile de trouver une somme qui rende compte de l'ensemble des évolutions dans ces domaines, et c'est pourquoi la récente parution du livre de Karl Paulsen, Moving Media Storage Technologies, est intéressante à plus d'un titre.
On notera tout d'abord que ce livre est une solide revue de l'ensemble des technologies d'enregistrement dédiées à l'audio et à l'image, numériques ou analogiques. Mais non content d'être une somme essentielle qui rend compte de l'état de l'art dans ces domaines, le livre nous propose aussi des chronologies du développement des médias et des technologies, ce qui permet de retracer en creux un aperçu intéressant de l'histoire de ces techniques, que d'autres ouvrages ont pu évoquer : on peut citer, par exemple, Video Recording Technology, de Aaron Foisi Nmungwun, qui commence à dater cependant (1989), mais qui adopte une perspective historique et socio-technique plutôt intéressante.
Quelques étapes dans la chronologie des techniques et des médias d'enregistrement :
1877- Edison effectue le premier enregistrement d’une voix sur son phonographe à cylindre
1898- Valdemar Poulsen (Danemark) dépose le brevet du télégraphone, le premier enregistreur magnétique qui utilise un ruban métallique
1925 - Mise en vente des premiers disques enrtegistrés électriquement et des premiers phonographes orthophoniques
1948 - Les premiers enregistreurs Ampex 200 à bande sont utilisés sur le Bing Crosby Show, et l'enregistrement est effectué sur bande d'acétate 3M Scotch 111
1951 - Une équipe sous la direction de Charles Ginsburg commence à travailler chez Ampex sur la conception d'un enregistreur vidéo à bande. 
1953 - Vladimir K. Zworykin et les Laboratoires RCA font la démonstration d'un VTR à défilement longitudinal et ayant trois têtes d'enregistrement, capable d'enregistrer à la vitesse de 360 in./sec. avec un son modulé en amplitude (AM)
1956 - Ampex effectue une démonstration du premier VTR enregistrant en quadruplex au NAB, en avril. Ce "quad" utilise des bandes 3M de 2 pouces qui tournent à la vitesse de 15 pouces/sec. sur une tête rotative. Au cours des 4 années qui suivent, 600 unités seront vendues à 75000$ pièce, principalement aux chaines de télévision.
Et ainsi de suite jusqu'à l'introduction des médias d'enregistrement optique, qui vont progressivement supplanter les bandes, et sont en voie d'être eux-mêmes rangés au rayon des accessoires par les dispositifs à semi-conducteurs (Solid State Devices ou SSD). De toutes façons, production, post-production et diffusion sont aujourd'hui pour l'essentiel tapeless.
 Voici donc un tableau qui reprend quelques unes des dates importantes dans l'avènement des techniques d'enregistrement et de reproduction en vidéo.

    (Copyright : Karl Paulsen)

Une autre chronologie qui montre bien le rythme de la progression des supports d'enregistrement, en densité et en rapidité, est celle des disques magnétiques, appelés plus communément "disques durs". Ces dispositifs sont devenus progressivement essentiels en vidéo et cinéma numérique, en raison d'une part de la transformation des flux vidéo en fichiers ("films have become files" comme le dit si bien David Bordwell), et d'autre part en raison de la quantité sans cesse croissante des volumes de données à traiter.
Concernant ce dernier point, il faut bien remarquer cependant que la progression des technologies de compression, au même titre que l'accroissement des capacités des disques magnétiques, sont probablement les facteurs premiers ayant permis la numérisation de l'ensemble de la chaine de production du cinéma et le passage d'un ensemble de procédés analogiques réalisés en laboratoire à un flux de travail qui se déroule essentiellement dans les salles de post-production. Exit donc, à très court terme, le laboratoire et les copies de travail, et nous voici au stade où l'ingest, à partir des fichiers déjà soigneusement gérés par le DIT (Digital Image Technician) et le Data Wrangler, va permettre de réaliser un "positif" numérique qui, après conformation ira se loger dans un DCDM (Digital Cinema Distribution Master) prêt à être expédié dans les salles...
Voici donc un deuxième tableau qui montre la progression météorique des capacités des supports magnétiques au cours des cinquante dernières années. Et ce n'est pas terminé, puisque la prochaine étape consistera à stocker sur SSD en tournage (c'est déjà le cas, souvent) et à sauvegarder sur le Cloud.

    (Copyright Karl Paulsen)

Le livre de Paulsen consacre tout naturellement un chapitre entier au développement de ces dispositifs d'enregistrement à semi-conducteurs, que la baisse des coûts depuis un an ou deux a rendus omniprésents dans le monde de  la production ciné-vidéo. Il faut donc tout naturellement observer que les dispositifs de lecture-enregistrement à base de SSD connaissent aujourd'hui un succès très important et offrent des avantages non négligeables, par rapport aux disques durs classiques et aux lecteurs à disque magnéto-optique en raison, en particulier, de leur consommation énergétique plus réduite, des temps d'accès réduits et d'une bonne résistance aux chocs.
La baisse des prix ne fait qu'accélérer leur implantation dans "l'industrie", et le remplacement complet des systèmes actuels de serveurs et de stockage de Big Data se fera sans doute dans un avenir pas très lointain - à moins que la production mondiale de semi-conducteurs connaisse un ralentissement important du fait de difficultés dans les pays producteurs...
Paulsen fait donc, dans ce chapitre du livre, un point sur l'histoire et le développement des mémoires flash, qui sont la forme du média tel qu'il est utilisé dans les SSD. 
Il développe ensuite une discussion autour des composants, de la structure des cellules et des modes opératoires des mémoires flash, avant de mettre en relief les avantages et les limites de ces types de dispositifs.
Sur un plan plus strictement technique, il s'attache à démontrer les applications et les différences entre mémoires de type NOR et NAND, comment la protection des données et les questions de sécurité sont gérées dans les SSD, et enfin les principales applications des mémoires flash et des composants alliés dans un SSD.
Un autre chapitre, très intéressant, concerne le développement et l'utilisation des formats de fichiers et en particulier des conteneurs (wrappers) en production et post-production. Ces questions ne sont d'ailleurs pas toujours très bien comprises par les professionnels eux-mêmes et sont une conséquence du développement de la compression vidéo et de son utilisation dans les systèmes de montage non-linéaire (NLE). La multiplication des plateformes et des systèmes concurrents ont montré le besoin d'une standardisation des formats de fichiers. Le développement de formats incompatibles entre eux en production et en diffusion ont créé des problèmes qu'il fallait résoudre chaque fois qu'un nouveau format d'encodage était introduit. C'est ainsi qu'il a fallu mettre en place des plateformes et des systèmes de transcodage, pour convertir ou traduire un format de média vers un autre. Il a donc fallu créer des "formats de fichiers" (à ne pas confondre avec les systèmes de fichiers) que l'on peut décrire comme étant des structures créés à partir des médias eux-mêmes - qui sont généralement compressés, d'une manière ou d'une autre.
La discussion concernera ensuite le développement des codecs qui sont, comme chacun sait, des dispositifs, hardware ou software, qui convertissent les fichiers de médias du domaine non-compressé au domaine compressé (compresseur) ou l'inverse (décompresseur). La solution matérielle, configurée autour d'un serveur de médias classique, consistera à transporter les flux audio et vidéo dans leurs formats standards (SMPTE 259M ou 292M) le long d'un système qui effectuera successivement ingest, transcode et playback dans le format d'origine. Ce qui donne le diagramme suivant :

On retiendra aussi la discussion autour des conteneurs ou "wrapper" : l'élément de base dans une structure de fichiers multimédia comprend des ensembles d'audio, de vidéo et de données, qui sont considérés comme des "essences". L'audio consistera généralement en plusieurs pistes, individuelles ou appairées. La vidéo peut être des images fixes ou en mouvement, dans des résolutions pouvant aller jusqu'à la HD, 2K, 4K. L'information, telle que le time code et les descriptions de prises de vue.
Lorsque ces ensembles d'essences sont combinés avec les métadonnées associées, ils forment un "contenu". Pour permettre de déplacer ces paquets de contenus, devenus des fichiers, dans uun système, ils sont enveloppés dans un "conteneur" ou "wrapper". Ces procédures peuvent prêter à confusion, car les conteneurs sont souvent considérés comme des descripteurs de formats de fichiers ou d'extension. On trouvera par exemple des ".MOV wrapped" ou des ".MXF wrapped".
Suit une discussion du Material eXchange Format (MXF) développé à la suite des efforts du SMPTE. Ce conteneur trouve son origine vers le milieu des années 1990, au moment où il est apparu que la convergence entre IT (technologies de l'information) et audiovisuel se ferait dans les années suivantes. Le développement des systèmes de montage non-linéaires et des serveurs vidéo impliquait une interopérabilité entre systèmes et le transfert des fichiers d'un système à un autre.
L' EBU et le SMPTE travaillèrent alors conjointement pour proposer un cadre de propositions pour l'implantation de nouvelles structures permettant l'interopérabilité entre des systèmes hétérogènes. Le travail donna lieu à une publication en juillet 1998 sous le titre : "Task Force for Harmonized Standards for the Exchange of Programme Material as Bitstreams". Ce travail insistait tout particulièrement sur la nécessité de réaliser la standardisation des conteneurs et des métadonnées. Ce conteneur standard qui est apparu alors a pris le nom de MXF.
Structure d'un fichier MXF de base : Un en-tête (File Header), suivi par le corps (File Body) qui contient les essences et le footer qui clôt le fichier et permet de répéter les métadonnées d'en-tête.
Je n'irai pas plus loin dans cette description des fichiers MXF. Il faut savoir cependant que ce format sert de conteneur à des codecs aussi variés que le MPEG2 utilisé par Sony dans ses caméras, l'AVC Intra utilisé par Panasonic, mais aussi pour le transport dans les DCP des fichiers image et son utilisés pour la diffusion du cinéma en numérique.
A noter aussi que l'EBU et le SMPTE ont formé en avril 2013 une nouvelle "task force" (conjointement avec le VSF ou Video Services Forum) appelée Joint Task Force on Networked Media (JT-NM) dont l'objet est  de permettre de développer de nouvelles infrastructures autour de l'échange et la distribution de médias en réseau. Son objectif sera de définir une stratégie pour le développement d'une infrastructure de réseau pour les professionnels de l'industrie des médias. Il s'agira donc d'assurer l'interopérabilité et la distribution des médias, à la fois sous forme de fichiers ou en streaming, sur une échelle locale, régionale et globale.
On voit donc clairement que, le passage d'une logique de flux stockés localement sur bande à une infrastructure dans laquelle ce sont des fichiers qui sont échangés sur des réseaux informatiques est en voie d'être standardisé, avec très clairement un objectif de délocalisation de la masse des fichiers échangés vers une structure que l'on appelle aujourd'hui le Cloud.
Cependant, la production en "live" continue pour l'essentiel à utiliser du hardware spécialisé et des interfaces SDI ou HD-SDI. Les diffuseurs ont toujours besoin de gérer leurs flux de travail avec des temps de latence réduits au minimum, et une fiabilité maximale, ce qui explique pourquoi ce sont des technologies matures qui prédominent. Toutefois, avec les progrès réalisés dans les transmissions par paquets, et avec le 10 Gigabits Ethernet devenu plus abordable (et les 40 GigE et 100 GigE qui arrivent), il devient réaliste de parler du passage de la production live dans une architecture de réseau unifiée pour l'ensemble de la chaine de production. Ce qui donne le schéma d'évolution suivant :


 (EBU Technology Fact Sheet, septembre 2013)
 


samedi 23 novembre 2013

Comment créer un DCP et l'utiliser avec profit pour diffuser vos œuvres

Une question récurrente ces jours-ci (en phase avec nos précédentes publications) : comment créer un DCP ou Digital Cinema Package, et comment l'exporter et ensuite l'utiliser dans un projecteur numérique de D-Cinéma. Il existe bien sûr différentes solutions, dont certaines en open source, d'autres très "pro" qui coûtent très cher ou assez cher, et d'autres encore sous forme de plug-in, pour Adobe Premiere Pro ou Final Cut Pro, par exemple.



Mais d'abord, qu'est-ce qu'un DCP ?
Q. : Qu'est-ce qu'un Digital Cinema Package  (DCP) ?
R.: Un DCP est l'équivalent numérique d'une copie 35mm en argentique. C'est l'ensemble des fichiers sauvegardés sur un disque dur, et fournis aux exploitants de salles de cinéma. Les fichiers sont compressés à partir d'un master appelé Digital Cinema Distribution Master (DCDM), et comprennent le film (image, son, métadonnées, etc.) et le cryptage le protégeant d'un éventuel piratage. Un DCP est généralement composé de fichiers MXF (Material Exchange Format) et XML, et les images sont encodées en JPEG-2000. Le DCP est aujourd'hui un standard, ce qui simplifie sa diffusion et son utilisation.

Q.: Pourquoi faire un DCP plutôt qu'une copie 35mm classique ?
R.: Il faut déjà se rendre compte que la diffusion de la projection de films en numérique a pris une importance telle, ces dernières années, qu'il n'est plus possible, pour un exploitant, de prétendre obtenir n'importe quelle copie des films qu'il compte projeter, en 35mm comme autrefois. Pour se rendre compte de l'évolution du cinéma vers le numérique, quelques chiffres (empruntés à David Bordwell, Pandora's Digital Box, p. 9 et suivantes) : en décembre 2000, il y avait environ 164000 écrans de par le monde, et seulement une trentaine de projecteurs numériques. Cinq ans plus tard, ils étaient 848. Fin 2010, 36103 écrans étaient réservés à la projection en numérique, soit environ 30 pour cent du total. Fin 2011, 80 pour cent des films distribués en Grande Bretagne l'étaient en numérique, et en Belgique les deux principaux exploitants, Kinepolis et UGC, sont passés au numérique dans l'ensemble de leurs salles. En Norvège, toutes les salles sont passées à la projection en numérique cette année-là, surtout en raison de subventions gouvernementales qui ont accéléré la transition. Au jour d'aujourd'hui, certaines majors (Twentieth Century Fox, par exemple) ont tout simplement cessé de produire des copies 35mm et bon nombre de salles n'ont tout simplement plus de projecteurs 35mm à leur disposition !
Une autre raison tient au facteur prix : pour obtenir une copie 35mm d'un film tourné en numérique et post-produit sur les systèmes de montage actuels, il faudra effectuer un "filmout", c'est à dire le processus qui consiste à convertir des fichiers numériques en film. Le coût pour un long métrage est évalué à 40 K$ environ (chiffre fourni par dcpinfo.com).
Bien évidemment il y a aussi le facteur qualité, puisqu'un fichier ne sera pas dégradé par de multiples passages dans le projecteur, contrairement à la copie film. Après, bien sûr il y a le coût du DCP.




Q.: Combien ça coûte ?
R.: Là on s'aperçoit qu'il faut aller à la pêche aux infos et que ce n'est pas toujours évident de démêler le lard du cochon. Une source qui me semble assez fiable : une boite spécialisée de Bruxelles, Charbon Studio, qui a la correction de publier ses tarifs sur son site Internet. Bon, ça reste assez cher, donc si vous avez un court métrage ou que vous avez réalisé un doc avec des copains, il vaut sans doute mieux se rabattre sur du DIY, avec tous les aléas que cela comporte...
Il faudra vérifier toutefois que le prix de la prestation inclut :
1. Le Master, avec tous les fichiers (audio, vidéo, sous-titres, etc.)
2. Le QC (Quality Check) après vérification que tous les problèmes éventuels ont bien été réglés (drop out, synchro, gamma, colorimétrie, etc.)
3. Le transfert du DCP vers une unité de sauvegarde, qui peut être un disque dur acheté dans n'importe quel magasin ou bien une unité professionnelle disposant d'un système de transport sécurisé tel que le DX115, appelé CRU.

Q.: Quelles normes pour le D-Cinéma
R.: Il existe des règles qui varient assez peu selon les pays (la normalisation fonctionne assez bien). L'Academy of Motion Picture Arts and Sciences a adopté les spécifications suivantes pour les DCP :
Video:                24.00 frames per second
Compression:     JPEG2000
Color Space:       XYZ
Video Format:     2K - 2048x1080 container size (1920x1080, 1998x1080, 2048x858 and other image sizes are acceptable)
Audio Format:     24-bit, 48 kHz uncompressed
                            Minimum 3 channels (Left,Right,Center) or 5.1 (L,R,C,LFE,LS,RS)
Audio Channel
Mapping:            1:Left   2:Right   3:Center   4:Subwoofer  5:Left Surround   6:Right Surround
Encryption:         Unencrypted material only

De son côté, la France dispose d'une norme AFNOR NF S 27-100 pour "salle de projection électronique de type cinéma numérique" dont les spécifications techniques sont les suivantes :



 Q.: Dans ce cas, comment puis-je faire un DCP ?
R. : Plusieurs solutions sont disponibles. Il existe des solutions professionnelles, comme celle proposée par Rovi, dénommée Total Code Studio, ou encore easyDCP, qui est intégré aujourd'hui à la toute dernière version de Resolve, la suite d'étalonnage de Blackmagic Design.On pourra aussi s'intéresser à des solutions open source, comme OpenDCP ou, plus facile, DVD-o-matic qui fonctionne plutôt bien, semble-t-il.
Le seul problème (mais il est de taille) avec toutes ces solutions, c'est que le DCP ainsi crée ne peut être réllement testé et évalué que sur grand écran, avec un projecteur D-cinéma. Les DCP utilisent un espace colorimétrique différent de celui intégré à votre moniteur informatique ou vidéo, ce qui signifie qu'il n'est  possible, sur une station de travail, que d'émuler le look spécifique de la projection en salle.

Q.: Où peut-on trouver les spécifications du DCP ?
R.: Dans les documents suivants, SMPTE 428-1-2006 D-Cinema, ISO/IEC 15444-1, SMPTE 428-2-2006 D-Cinema, SMPTE  428-3-2006 D-Cinema


Au final, pour permettre la réalisation du DCP dans une des solutions proposées, il vous faudra le film dans un fichier HD Quicktime ou AVI, compressé au format JPEG-2000, avec les spécifications suivantes :

Video : 24, 25, 30, 48, 50, and 60 fps @ 2K
            24, 25, and 30 fps @ 4K
            24 and 48 fps @ 2K stereoscopique

Format : HDTV 1920x1080 ou 3840x2160 pour du 16:9 (~1,78:1)
              Flat 1998x1080 ou 3996x2160 (~1,85:1)
              Scope 2048x858 ou 4096x2160 (~2,39:1)

Bit rate max. : 250 Mbit/s.
Espace colorimétrique : XYZ
Résolution : 12 bits par pixel (soit 36 bits au total)

Fichier encodé en sortie DCP : H.264 ou Uncompressed

Audio : 3 canaux au minimum (Gauche, Droite et Centre) ou 5.1 (L,R,C,LFE,LS,RS) - intégré dans un fichier Quicktime ou bien fourni dans des fichiers mono 24bits/48kHz/96kHz, WAV ou AIFF

Mapping Audio : 1:Gauche, 2:Droite, 3:Centre, 4:Subwoofer, 5:Surround gauche, 6:Surround droite


mercredi 13 novembre 2013

La FIN du cinéma ? (suite)

David Bordwell l'a bien noté : les films sont devenus des contenus et on parle d' ingest et non plus de chargement de bobine. L'environnement technique/technologique tel qu'il apparait dans le circuit menant de la production à l'exploitation (le workflow) a complètement changé, avec des conséquences irréversibles sur la nature même de l'objet filmique.
Cela a-t-il changé quelque chose pour le spectateur ? Pas vraiment si l'on s'en tient à l'expérience vécue dans les salles - et cela malgré les discours (passéistes ?) qui veulent démontrer qu'il ne saurait y avoir d'expérience de cinéma en dehors de la projection sur écran d'une bande perforée, couchée sur un support argentique - ce qui revient à nier au numérique la possibilité même de la projection, et ceci n'est pas tout à fait faux, puisque dans ce cas il ne s'agit pas d'un processus fondé uniquement sur les propriétés optiques d'une lentille et le passage d'une bande devant une lampe de forte puissance (on pourra éventuellement s'intéresser aux caractéristiques des DLP et du DCI en recherchant des éléments de bibliographie ou des ouvrages sur Internet).


Passons sur toutes les situations qui, comme l'écrit Jacques Aumont, "battent en brèche le dispositif cinématographique canonique" (Que reste-t-il du cinéma ?, p.77, Vrin 2012). En réalité, ce dispositif n'a probablement jamais existé. En effet, même la supposition d'une immobilité forcée du spectateur devant l'écran ne tient pas, puisqu'il y a eu les drive in et qu'il y a encore des projections en plein air et des projecteurs dans la salle - il y a des projecteurs dans la salle depuis que le 16mm existe, voir à ce sujet le texte éclairant de David Bordwell, déjà cité. Et ce qui reste du dispositif est donc, toujours selon Jacques Aumont, "en un sens, abstrait, puisque ce n'est jamais qu'une référence mentale à l'idée de dispositif... ce qu'on continue d'appeler le dispositif cinéma existe en somme aujourd'hui autant qu'il y a un demi-siècle, parce que ni aujourd'hui, ni autrefois, il n'a jamais été parfaitement respecté dans la réalité." (Aumont, op. cit. p.78)
Là où pourtant l'expérience de cinéma a changé de manière radicale, c'est dans l'environnement de diffusion privé qui s'est transformé progressivement au cours des années, jusqu'à devenir un système doté de caractéristiques potentiellement équivalentes à celles que l'on trouve dans les salles et capable, en plus, d'interagir avec le réseau, ne serait-ce qu'en utilisant la VOD.
Il est évident, en effet, que pour la plupart des spectateurs l'arrivée d'écrans de plus en plus performants - le 4K avant le 8K, et l'UHDTV avec des diffusions prévues dès 2014 - sont autant d'éléments qui rendent caduque l'expérience de cinéma telle que nous pouvons la vivre aujourd'hui. Ce n'est pas la 3D stéréoscopique, qui n'est pour le moment qu'une manière de faire du neuf avec une technologie ancienne, qui changera cette évolution. Quoi de plus rédhibitoire, en effet, que de devoir porter ces lunettes en plastique, à chaque séance, pour se voir gratifier de quelques effets de jaillissement qui font ressembler l'expérience de cinéma à une attraction foraine ?


D'autre part, la constitution même de l'expérience de cinéma, dans sa structure narrative et dans sa durée, est interrogée aujourd'hui par cet autre phénomène, lié à la télévision, que constitue la diffusion en masse de séries. Non pas qu'il s'agisse d'un genre nouveau. La télévision, après la radio, a depuis longtemps développé ce genre, basé sur le feuilleton et les rendez-vous à dates et heures fixes. C'est l'extension à des thématiques de plus en plus variées et la sophistication de ces histoires, constituées d'épisodes aux durées limitées et aux codes bien identifiés, qui constitue la véritable nouveauté. Il y a désormais des chaines de télévision qui ne diffusent que des séries et des forums sur Internet qui sont le rendez-vous des aficionados du genre. Il est possible, d'ailleurs, que la télévision ait trouvé là son arme ultime contre le cinéma dans les salles...
Car, à vrai dire, c'est le problème de l'exploitation dans les salles qui se pose, plus que celui du changement de nature de l'expérience de cinéma - en effet, et comme l'a très bien écrit David Bordwell, combien de spectateurs ont-ils réellement pris conscience du fait que la projection des films était désormais le résultat du processus de digitalisation ?
On sait aujourd'hui qu'en dehors des grandes métropoles remplir les salles des multiplexes à toutes les séances est devenu une gageure. Les films ont désormais une durée de vie en salle très courte, parfois même très réduite, et même les grosses locomotives ne restent pas à l'affiche plus de trois ou quatre semaines. Lorsque, dans une ville de taille moyenne telle que Poitiers (80,000 habitants) un exploitant de multiplexe annonce 230,000 places vendues au cours du dernier exercice, on peut raisonnablement se demander quel est le seuil de rentabilité pour un tel ensemble.
Certains films réussissent pourtant à remplir les salles, et pour une durée appréciable. Cependant, on peut estimer que l'engouement qu'ils provoquent n'est déjà plus de l'ordre de l'expérience de cinéma telle que pourraient la définir bon nombre de cinéphiles. La plupart des spectateurs d'Intouchables, par exemple, n'allaient pas souvent au cinéma, ou bien s'y rendaient lorsque le spectacle était (semble-t-il) de nature à provoquer leur adhésion en jouant sur des particularismes ethniques ou socio-culturels. Bien loin de considérations esthétiques, parfois. Il faudrait sans doute plus d'Intouchables pour sauver l'exploitation en salle, mais la nature même de ces évènements fait qu'ils sont impossibles à prévoir.
Au fond, c'est aussi la question du cinéma en tant que divertissement populaire qui est posée. La cinéphilie galopante qui, en France tout au moins, a envahi la plupart des festivals de cinéma et les cursus scolaires, a peut-être plus fait pour éloigner les spectateurs des salles de cinéma que la télévision et les matches de football réunis.
Il devient parfois très difficile de dire qu'on s'amuse plus en allant voir "Iron Man 3" que le dernier opus de tel auteur estimé et généralement adoubé par la doxa des cinéphiles. Et il faut bien reconnaitre que cet "auteurisme triomphant" (la formule est de Yannick Dahan) a toujours eu du mal à attirer les foules, et cela malgré les certificats de bonne conduite délivrés par les critiques (peut-être faudrait-il définir d'ailleurs ce que peut bien représenter cette critique de cinéma, mais ce sera pour une autre fois...)
De fait, si le cinéma souffre de la concurrence de la télévision et des médias connectés, il souffre surtout de ne plus être perçu comme un divertissement populaire majeur - le principal d'ailleurs, jusqu'aux années 1960, et d'avoir été remplacé progressivement dans ce rôle par d'autres formes de spectacle, dont les compétitions sportives semblent être le modèle directeur. D'où, sans doute, ce développement actuel des retransmissions en direct à l'intérieur des salles de cinéma, lesquelles ne sont plus réservées à la seule projection de films de cinéma - aux séances codifiées en termes de contenu, de déroulement et de durée - mais qui peuvent désormais permettre de regarder en direct des matches de hockey sur glace ou des comédies musicales dont la temporalité n'est pas la même. Cette forme de diversification suffira-t-elle à sauver l'exploitation en salle ou allons-nous assister à la création d'une nouvelle économie de niche, à la manière de ce qui est advenu du théâtre, créant ainsi une sorte de cinéma des cinéphiles ?  Pas sûr que ce soit une bonne voie pour l'avenir du "7ème Art".

dimanche 3 novembre 2013

La FIN du cinéma ? Notes à propos du livre de Gaudreault et Marion

 Choisir comme titre une référence à celui du livre de André Gaudrault et  Philippe Marion, intitulé justement "La Fin du Cinéma" c'est d'une certaine façon se ranger du côté de ceux qui pensent que, effectivement la question de la fin d'une certaine forme de cinéma est posée. Ce n'est pas forcément accepter l'idée que le cinéma, en tant qu'expérience culturelle collective, est appelé à disparaître. Dans un autre domaine, l'économiste Joseph Schumpeter montrait que le processus de destruction d'anciennes formes de production était concomitant de l'apparition d'un nouveau système, porté par des vagues d'innovations appelées à transformer la société toute entière. C'est ce qu'il qualifiait de "destruction créatrice".
On peut penser que le processus enclenché depuis quelques années déjà sous le qualificatif de "révolution numérique" procède des mêmes principes et nous amènera à terme aux mêmes transformations... Nous reviendrons sur cette question, avec une revue complète du livre de Gaudrault et Marion, et en y ajoutant sans doute d'autres titres. A remarquer tout de même que cette question (celle de la "fin du cinéma") s'est posée déjà à plusieurs reprises, ne serait-ce qu'au moment où la concurrence de la télévision a amené les industriels et les producteurs à développer de nouvelles technologies (cinémascope, relief), censées enrichir l'expérience de la projection cinématographique en salle, et contrer ainsi l'influence du petit écran. En témoigne cette couverture de Paris-Match, du 25 juillet 1953, reproduite dans le livre des auteurs sus-cités. L'expérience cinématographique, en tous cas, ne se limite plus à la projection collective en salle (une salle obscure s'entend), dans une temporalité qui correspond à la durée du film. Le DVD, depuis plusieurs années déjà, et maintenant les fichiers de type MKV ou autres, permettent une expérience fragmentée et différents types d'allers et retours sur image qui transforment bel et bien la nature de la relation que le spectateur entretient désormais avec l'objet cinéma. Quid d'ailleurs des conséquences de la généralisation de la projection numérique et du DCP ? Car le fait que le support du film est dématérialisé implique forcément, à brève échéance, la disponibilité de cette distribution partout où existeront des dispositifs d'enregistrement et de diffusion compatibles. Et désormais la qualité est au rendez-vous : écrans 4K et plus et enregistreurs numériques qui deviendront progressivement accessibles au plus grand nombre.  Dès lors comment amener le public à sortir de chez soi et à se rendre dans les salles ? On aura beau répéter que voir un film de Fritz Lang ('Secret beyond the door' par exemple) sur un écran OLED ou dans une salle de cinéma ce n'est pas la même chose (noir et blanc oblige), on ne convaincra pas grand monde, surtout dans les villes où les salles dites "d'art et d'essai" n'ont pas projeté de tels films depuis des lustres...                                                                           
Certains d'ailleurs, comme Peter Greenaway, pensent que le cinéma est bel et bien mort et enterré, et estiment que cette agonie a commencé en 1983, avec l'apparition de a télécommande pour le magnétoscope (rien à voir donc avec le numérique, puisque le dispositif d'alors est simplement électronique, même s'il comporte des circuits intégrés numériques). En réalité, Greenaway pense qu'à la projection en salle, avec des spectateurs passifs devant l'écran, est en train de se substituer une expérience interactive, plus en phase avec les développements actuels en matière de jeux vidéo, de performances multimédia (lui-même a été très actif sur ce terrain, en témoigne cette vidéo sur YouTube), et de télévision connectée, dernière tentative en date des médias de masse et des industriels pour récupérer l'énorme potentiel généré par les réseaux sociaux. Cette révolution remettrait en question les fondements mêmes de la production de films de cinéma, telle que nous la connaissons - disparition de la caméra par exemple, comme il le dit dans cette interview diffusée sur YouTube






Un autre aspect de cette transformation radicale de la production et de la diffusion - qui n'est pas abordé par Gaudreault et Marion, et à peine effleuré par David Bordwell dans son dernier ouvrage, concerne le futur de certains métiers liés à la post-production et l'avenir de ce secteur tout entier d'ailleurs. En effet, avec les développements que l'on connait, il est devenu relativement facile pour un  "indépendant" (ne parlons pas d'amateur, car cette catégorie n'existe plus) de s'équiper avec du matériel et des logiciels autrefois réservés à des sociétés de production disposant d'une infrastructure conséquente. Après Final Cut Pro, devenu le principal concurrent d'Avid, le dernier pavé dans la mare digitale nous vient du britannique Blackmagic Design qui, après avoir racheté DaVinci et son fameux logiciel d'étalonnage numérique Resolve, en a mis à disposition de tous une version gratuite, dite "Lite",  avec quelques limitations par rapport à la version complète, mais qui est parfaitement opérationnelle, multiplateforme et permettant à toute personne équipée d'une machine récente, tournant sous Mac OS ou Windows,  de se lancer dans l'étalonnage professionnel de ses rushes. Sans parler du fait que cette plateforme permet aussi d'obtenir un DCP final grâce à l'intégration de EasyDCP. On est désormais loin du laboratoire et des allers et retours avec les copies de travail. Un post récent de Noam Kroll rend compte de cette évolution et s'interroge d'ailleurs sur l'avenir des laboratoires et des sociétés de post-production.