dimanche 5 janvier 2014

Une histoire des technologies d'enregistrement en vidéo

S'il est un domaine absolument essentiel dans le développement de la télévision et du cinéma numérique c'est bien celui des technologies d'enregistrement des sons et des images animées, et l'histoire du développement des supports et des systèmes utilisés.
Or, on s'aperçoit très vite lorsqu'on cherche des informations à ce sujet, que celles-ci restent confinées dans des cercles étroits de spécialistes ou, au mieux, dans une documentation technique partielle et, le plus souvent rapidement rendue obsolète par les progrès très rapides réalisés dans ces domaines.
Signalons tout de même le blog de Daniel Renard (très intéressant d'ailleurs), qui consacre une page à l'enregistrement vidéo sur magnétoscope Ampex, et les livres de Guy Chesnot, tout particulièrement le dernier : Cloud Computing, Big Data, Parallélisme, Hadoop, qui ne traite pas cependant du cas spécifique de la vidéo, ce qu'il fait en revanche dans un livre plus ancien, Solutions Informatiques pour la Vidéo, désormais épuisé chez l'éditeur.



Il est donc difficile de trouver une somme qui rende compte de l'ensemble des évolutions dans ces domaines, et c'est pourquoi la récente parution du livre de Karl Paulsen, Moving Media Storage Technologies, est intéressante à plus d'un titre.
On notera tout d'abord que ce livre est une solide revue de l'ensemble des technologies d'enregistrement dédiées à l'audio et à l'image, numériques ou analogiques. Mais non content d'être une somme essentielle qui rend compte de l'état de l'art dans ces domaines, le livre nous propose aussi des chronologies du développement des médias et des technologies, ce qui permet de retracer en creux un aperçu intéressant de l'histoire de ces techniques, que d'autres ouvrages ont pu évoquer : on peut citer, par exemple, Video Recording Technology, de Aaron Foisi Nmungwun, qui commence à dater cependant (1989), mais qui adopte une perspective historique et socio-technique plutôt intéressante.
Quelques étapes dans la chronologie des techniques et des médias d'enregistrement :
1877- Edison effectue le premier enregistrement d’une voix sur son phonographe à cylindre
1898- Valdemar Poulsen (Danemark) dépose le brevet du télégraphone, le premier enregistreur magnétique qui utilise un ruban métallique
1925 - Mise en vente des premiers disques enrtegistrés électriquement et des premiers phonographes orthophoniques
1948 - Les premiers enregistreurs Ampex 200 à bande sont utilisés sur le Bing Crosby Show, et l'enregistrement est effectué sur bande d'acétate 3M Scotch 111
1951 - Une équipe sous la direction de Charles Ginsburg commence à travailler chez Ampex sur la conception d'un enregistreur vidéo à bande. 
1953 - Vladimir K. Zworykin et les Laboratoires RCA font la démonstration d'un VTR à défilement longitudinal et ayant trois têtes d'enregistrement, capable d'enregistrer à la vitesse de 360 in./sec. avec un son modulé en amplitude (AM)
1956 - Ampex effectue une démonstration du premier VTR enregistrant en quadruplex au NAB, en avril. Ce "quad" utilise des bandes 3M de 2 pouces qui tournent à la vitesse de 15 pouces/sec. sur une tête rotative. Au cours des 4 années qui suivent, 600 unités seront vendues à 75000$ pièce, principalement aux chaines de télévision.
Et ainsi de suite jusqu'à l'introduction des médias d'enregistrement optique, qui vont progressivement supplanter les bandes, et sont en voie d'être eux-mêmes rangés au rayon des accessoires par les dispositifs à semi-conducteurs (Solid State Devices ou SSD). De toutes façons, production, post-production et diffusion sont aujourd'hui pour l'essentiel tapeless.
 Voici donc un tableau qui reprend quelques unes des dates importantes dans l'avènement des techniques d'enregistrement et de reproduction en vidéo.

    (Copyright : Karl Paulsen)

Une autre chronologie qui montre bien le rythme de la progression des supports d'enregistrement, en densité et en rapidité, est celle des disques magnétiques, appelés plus communément "disques durs". Ces dispositifs sont devenus progressivement essentiels en vidéo et cinéma numérique, en raison d'une part de la transformation des flux vidéo en fichiers ("films have become files" comme le dit si bien David Bordwell), et d'autre part en raison de la quantité sans cesse croissante des volumes de données à traiter.
Concernant ce dernier point, il faut bien remarquer cependant que la progression des technologies de compression, au même titre que l'accroissement des capacités des disques magnétiques, sont probablement les facteurs premiers ayant permis la numérisation de l'ensemble de la chaine de production du cinéma et le passage d'un ensemble de procédés analogiques réalisés en laboratoire à un flux de travail qui se déroule essentiellement dans les salles de post-production. Exit donc, à très court terme, le laboratoire et les copies de travail, et nous voici au stade où l'ingest, à partir des fichiers déjà soigneusement gérés par le DIT (Digital Image Technician) et le Data Wrangler, va permettre de réaliser un "positif" numérique qui, après conformation ira se loger dans un DCDM (Digital Cinema Distribution Master) prêt à être expédié dans les salles...
Voici donc un deuxième tableau qui montre la progression météorique des capacités des supports magnétiques au cours des cinquante dernières années. Et ce n'est pas terminé, puisque la prochaine étape consistera à stocker sur SSD en tournage (c'est déjà le cas, souvent) et à sauvegarder sur le Cloud.

    (Copyright Karl Paulsen)

Le livre de Paulsen consacre tout naturellement un chapitre entier au développement de ces dispositifs d'enregistrement à semi-conducteurs, que la baisse des coûts depuis un an ou deux a rendus omniprésents dans le monde de  la production ciné-vidéo. Il faut donc tout naturellement observer que les dispositifs de lecture-enregistrement à base de SSD connaissent aujourd'hui un succès très important et offrent des avantages non négligeables, par rapport aux disques durs classiques et aux lecteurs à disque magnéto-optique en raison, en particulier, de leur consommation énergétique plus réduite, des temps d'accès réduits et d'une bonne résistance aux chocs.
La baisse des prix ne fait qu'accélérer leur implantation dans "l'industrie", et le remplacement complet des systèmes actuels de serveurs et de stockage de Big Data se fera sans doute dans un avenir pas très lointain - à moins que la production mondiale de semi-conducteurs connaisse un ralentissement important du fait de difficultés dans les pays producteurs...
Paulsen fait donc, dans ce chapitre du livre, un point sur l'histoire et le développement des mémoires flash, qui sont la forme du média tel qu'il est utilisé dans les SSD. 
Il développe ensuite une discussion autour des composants, de la structure des cellules et des modes opératoires des mémoires flash, avant de mettre en relief les avantages et les limites de ces types de dispositifs.
Sur un plan plus strictement technique, il s'attache à démontrer les applications et les différences entre mémoires de type NOR et NAND, comment la protection des données et les questions de sécurité sont gérées dans les SSD, et enfin les principales applications des mémoires flash et des composants alliés dans un SSD.
Un autre chapitre, très intéressant, concerne le développement et l'utilisation des formats de fichiers et en particulier des conteneurs (wrappers) en production et post-production. Ces questions ne sont d'ailleurs pas toujours très bien comprises par les professionnels eux-mêmes et sont une conséquence du développement de la compression vidéo et de son utilisation dans les systèmes de montage non-linéaire (NLE). La multiplication des plateformes et des systèmes concurrents ont montré le besoin d'une standardisation des formats de fichiers. Le développement de formats incompatibles entre eux en production et en diffusion ont créé des problèmes qu'il fallait résoudre chaque fois qu'un nouveau format d'encodage était introduit. C'est ainsi qu'il a fallu mettre en place des plateformes et des systèmes de transcodage, pour convertir ou traduire un format de média vers un autre. Il a donc fallu créer des "formats de fichiers" (à ne pas confondre avec les systèmes de fichiers) que l'on peut décrire comme étant des structures créés à partir des médias eux-mêmes - qui sont généralement compressés, d'une manière ou d'une autre.
La discussion concernera ensuite le développement des codecs qui sont, comme chacun sait, des dispositifs, hardware ou software, qui convertissent les fichiers de médias du domaine non-compressé au domaine compressé (compresseur) ou l'inverse (décompresseur). La solution matérielle, configurée autour d'un serveur de médias classique, consistera à transporter les flux audio et vidéo dans leurs formats standards (SMPTE 259M ou 292M) le long d'un système qui effectuera successivement ingest, transcode et playback dans le format d'origine. Ce qui donne le diagramme suivant :

On retiendra aussi la discussion autour des conteneurs ou "wrapper" : l'élément de base dans une structure de fichiers multimédia comprend des ensembles d'audio, de vidéo et de données, qui sont considérés comme des "essences". L'audio consistera généralement en plusieurs pistes, individuelles ou appairées. La vidéo peut être des images fixes ou en mouvement, dans des résolutions pouvant aller jusqu'à la HD, 2K, 4K. L'information, telle que le time code et les descriptions de prises de vue.
Lorsque ces ensembles d'essences sont combinés avec les métadonnées associées, ils forment un "contenu". Pour permettre de déplacer ces paquets de contenus, devenus des fichiers, dans uun système, ils sont enveloppés dans un "conteneur" ou "wrapper". Ces procédures peuvent prêter à confusion, car les conteneurs sont souvent considérés comme des descripteurs de formats de fichiers ou d'extension. On trouvera par exemple des ".MOV wrapped" ou des ".MXF wrapped".
Suit une discussion du Material eXchange Format (MXF) développé à la suite des efforts du SMPTE. Ce conteneur trouve son origine vers le milieu des années 1990, au moment où il est apparu que la convergence entre IT (technologies de l'information) et audiovisuel se ferait dans les années suivantes. Le développement des systèmes de montage non-linéaires et des serveurs vidéo impliquait une interopérabilité entre systèmes et le transfert des fichiers d'un système à un autre.
L' EBU et le SMPTE travaillèrent alors conjointement pour proposer un cadre de propositions pour l'implantation de nouvelles structures permettant l'interopérabilité entre des systèmes hétérogènes. Le travail donna lieu à une publication en juillet 1998 sous le titre : "Task Force for Harmonized Standards for the Exchange of Programme Material as Bitstreams". Ce travail insistait tout particulièrement sur la nécessité de réaliser la standardisation des conteneurs et des métadonnées. Ce conteneur standard qui est apparu alors a pris le nom de MXF.
Structure d'un fichier MXF de base : Un en-tête (File Header), suivi par le corps (File Body) qui contient les essences et le footer qui clôt le fichier et permet de répéter les métadonnées d'en-tête.
Je n'irai pas plus loin dans cette description des fichiers MXF. Il faut savoir cependant que ce format sert de conteneur à des codecs aussi variés que le MPEG2 utilisé par Sony dans ses caméras, l'AVC Intra utilisé par Panasonic, mais aussi pour le transport dans les DCP des fichiers image et son utilisés pour la diffusion du cinéma en numérique.
A noter aussi que l'EBU et le SMPTE ont formé en avril 2013 une nouvelle "task force" (conjointement avec le VSF ou Video Services Forum) appelée Joint Task Force on Networked Media (JT-NM) dont l'objet est  de permettre de développer de nouvelles infrastructures autour de l'échange et la distribution de médias en réseau. Son objectif sera de définir une stratégie pour le développement d'une infrastructure de réseau pour les professionnels de l'industrie des médias. Il s'agira donc d'assurer l'interopérabilité et la distribution des médias, à la fois sous forme de fichiers ou en streaming, sur une échelle locale, régionale et globale.
On voit donc clairement que, le passage d'une logique de flux stockés localement sur bande à une infrastructure dans laquelle ce sont des fichiers qui sont échangés sur des réseaux informatiques est en voie d'être standardisé, avec très clairement un objectif de délocalisation de la masse des fichiers échangés vers une structure que l'on appelle aujourd'hui le Cloud.
Cependant, la production en "live" continue pour l'essentiel à utiliser du hardware spécialisé et des interfaces SDI ou HD-SDI. Les diffuseurs ont toujours besoin de gérer leurs flux de travail avec des temps de latence réduits au minimum, et une fiabilité maximale, ce qui explique pourquoi ce sont des technologies matures qui prédominent. Toutefois, avec les progrès réalisés dans les transmissions par paquets, et avec le 10 Gigabits Ethernet devenu plus abordable (et les 40 GigE et 100 GigE qui arrivent), il devient réaliste de parler du passage de la production live dans une architecture de réseau unifiée pour l'ensemble de la chaine de production. Ce qui donne le schéma d'évolution suivant :


 (EBU Technology Fact Sheet, septembre 2013)
 


jeudi 26 décembre 2013

Où va le cinéma ? Quelques remarques à propos d'un livre de Jacques Aumont

Autour du livre de Jacques Aumont, Que reste-t-il du cinéma ? C'est assez rapide j'en conviens, mais il y a tellement de choses dans ce petit livre que je pense revenir dessus un peu plus tard.
Ce livre est (sans doute) une interrogation sur l'avenir de l'expérience de cinéma "à l'ère de sa reproduction numérisée" pour paraphraser le sous-titre d'un livre récent de Guillaume Basquin - qui lui-même a surement paraphrasé Walter Benjamin. Mais, heureusement, J. Aumont n'en reste pas à une interrogation angoissée mêlée de regrets. Il constate simplement que c'est la manière de voir des films, ou plus largement des images animées, qui a changé.  Ainsi, "aller voir un film au  cinéma n'est plus que l'une de ses formes possibles, et n'est sans doute plus, pour beaucoup de jeunes gens, la forme majoritaire" (p.10). Mais cependant, c'est une expérience particulière qui continue "de distinguer [le cinéma] comme porteur de certaines valeurs, dont il a l'exclusivité" (p.12)
Mais il convient tout de même de préciser ce qui est entendu ici par cette "expérience de cinéma". En effet, qu'est-ce que le cinéma ? Un dispositif immersif qui ne peut exister que dans certaines conditions et dans certains lieux ? Une question de structure narrative autour d'une durée strictement encadrée par les possibilités de projection en salle ? La discussion autour de L'Arche russe, de Sokourov, est intéressante car elle désigne en fait le principal problème autour duquel s'affrontent les exégètes du dispositif canonique. Le montage, tout d'abord, et ensuite le support bien sûr.
L’œuvre de Sokourov s'est  vue dénier le statut de film (par certains critiques) au vu qu'elle n'aurait pas été tournée en un seul plan, mais serait le résultat d'une combinaison de compositing et de divers processus réalisés en post-production. Aumont balaie en fait l'argument de cette non-conformité en considérant que le film au final c'est "non pas la genèse de cette œuvre et les actes de production qu'elle a engagés, mais le résultat tel qu'il apparait, phénoménalement, sur un écran et pour un spectateur" (p.19).
L'autre question, celle qui revient le plus souvent parmi les cinéphiles qui regrettent la réalité "matérielle" de la projection d'un film en bobines, c'est bien sûr celle du "numérique". Il existe ainsi une catégorie de spectateurs de cinéma pour lesquels un film c'est d'abord de la pellicule cinématographique et une bande régulièrement perforée et non "une vidéo à très haute définition" (Guillaume Basquin, Fondu au noir, p.17).
J. Aumont, pour sa part, reconnait le numérique à "sa froide perfection" (en parlant de la projection en salle). Il note que les premières machines vidéo, "bien rudimentaires" sont apparues il y a trente ou quarante ans.
Remarque en passant : la vidéo HD analogique produite par la NHK et exhibée à Montreux en 1983, aurait pu facilement être exploitée en salle (après report sur film, bien évidemment : kinéscopage). Apparemment le moment n'était pas venu : considérations tant idéologiques (pas question de laisser la vidéo empiéter sur le film) que techniques (manque de dynamique, de latitude dans les contrastes, absence de nuances dans l'image...) ou politico-économiques (système japonais contre volontés nationales européennes ou américaines)
Par ailleurs, je ne suis pas absolument certain d'être capable de juger de la sensation de chaleur ou de froideur que me procurent des technologies de reproduction des images animées, en particulier pendant une projection dans une salle obscure.
De même qu'il m'est difficile de déclarer, en revoyant tout à l'heure "Duel au Soleil" de King Vidor, sur Arte, "ça ce n'est pas une séance de cinéma", parce que je suis devant ma télé HD, installé dans mon salon en plein après-midi... et non pas dans une salle obscure, avec dans le dos un bon vieux projecteur 35mm et quelques scratchs sur la pellicule qui apparaissent aussitôt à l'écran.
Il est parfois possible pour un spécialiste de faire la différence entre une image numérique et une image argentique : cela se voit encore très bien sur certains détails, comme la reproduction des flammes ou la netteté des contours d'un visage - on en est d'ailleurs arrivé au point où il faut "dégrader" la qualité de l'image 4K afin que subsiste l'effet "film" ! Comme s'il existait une ontologie de l'image filmique et un goût particulier et immuable pour une certaine forme de représentation. Il est bon pourtant de rappeler les transformations que la photographie - pour prendre cet exemple - a connues depuis un siècle, transformations (évolutions ?) qui l'ont éloignée progressivement du statut strictement documentaire qui était le sien - même si je n'oublie pas le travail de Marey et Muybridge, mais c'est une autre histoire.
Laissons donc à Guillaume Basquin et aux thuriféraires de l'image argentique le goût du café en grains de la maison Verlet, et occupons-nous plutôt de nos capsules Nespresso... Et commençons par l'outil de base de la production cinématographique : la caméra elle-même.
Il est un fait, c'est qu'au delà de la simple comparaison des matériaux argentique vs. numérique, une caméra film a (encore) pour elle la compacité et la simplicité d'utilisation. Pas de réglages compliqués à prévoir pour l'enregistrement (codecs, espace colorimétrique, LUT, etc.), pas de câbles qui trainent, pas d'enregistreur externe. Pas moyen en revanche d'évaluer l'image enregistrée (le moniteur reste un simple témoin vidéo). La caméra numérique, en revanche, nous permet, pour peu que l'on dispose d'une sortie HD-SDI et d'un moniteur vidéo de qualité, de regarder une image qui présentera des caractéristiques pas trop éloignées du rendu final. Tout ceci reste évidemment assez relatif, puisqu'on sait qu'en cinéma numérique il faut presque obligatoirement passer par la case étalonnage numérique, mais c'était aussi le cas en argentique. On voit cependant arriver sur le marché de plus en plus de caméras numériques à grand capteur, qui présentent une ergonomie assez proche de celle des caméras vidéo ENG : compacité, légèreté, enregistrement en interne dans des codecs de qualité, tout en maintenant des résolutions et des formats proches du cinéma 35mm.
Remarque : le nombre de films tournés avec une Alexa (ARRI) augmente sans cesse, à tel point que cette caméra est en passe de devenir le standard de l'industrie - un peu comme Panavision avant elle pour l'argentique. On notera d'ailleurs que cette caméra n'est pas 4K mais 2,5K tout au plus (résolution à l'enregistrement : 2880x1620 et on reste en 16:9) et ça passe très bien en salle sur de grands écrans.Dans le même temps, deux autres "innovations" sont en passe de changer radicalement (on abuse un peu de l'adverbe, mais c'est comme ça) les technologies de prise de vue en numérique : la première concerne la disponibilité depuis peu de caméras de "cinéma numérique" low cost, et c'est la firme australienne Blackmagic Design qui est en pointe sur ce segment du marché. BMD a mis en vente une caméra 2,5K qui délivre des fichiers RAW (CinemaDNG pour être exact) avec un capteur un peu plus grand que le format S16, une monture EF (interchangeable) et l'enregistrement en interne sur disques SSD. Le tout pour moins de 2K€ TTC ce qui, il y a cinq ans aurait paru tout simplement incroyable. Depuis, BMD travaille sur un modèle 4K, avec un capteur S35 natif et qui est annoncé à moins de 4K€ cette fois.
La deuxième innovation concerne le travail effectué par de petites firmes ou des communautés de "nerds" qui tentent de développer et de mettre sur le marché des caméras issues de projets "open source".  Le plus remarquable actuellement semble être celui d'une firme autrichienne Apertus, qui serait dans les dernières étapes du développement d'un projet de caméra 4K dénommé AXIOM.


Critique de Expanded Cinema (Gene Youngblood) par J. Aumont (p.44 et suivantes) :
J. A. oublie que le mouvement vers un cinéma "en expansion" n'est pas l'apanage du mouvement "hippie" comme il l'appelle, mais qu'il est né bien avant cela, et qu'il faut sans doute reconnaitre parmi ses promoteurs des cinéastes et des artistes tels que Dziga Vertov, Fernand Léger, Hans Richter, Man Ray... et bien d'autres.
Le cinéma "expanded" auquel Aumont fait référence et sur lequel il concentre ses critiques a débuté en fait avec Maya Deren et Kenneth Anger, dans les années 1940. Ces deux-là n'étaient pas à proprement parler des cinéastes au sens où on pourrait l'entendre d'un Georges Cukor ou d'un Jean-Pierre Melville, mais cette distinction a-t-elle vraiment lieu d'être.
En fait, le cinéma "expérimental" se développe dans deux directions, dès les premiers films. Un mouvement largement inspiré par le surréalisme et la psychanalyse d'un côté, des recherches formelles prenant leur source dans l'art contemporain (futurisme, cubisme, puis art abstrait) de l'autre.
Voir le livre référence de Malcolm Le Grice, Abstract film and beyond (1977) ou celui de P. Adams Sitney, Visionary Film : The American Avant-Garde,1943-2000 (1974)
On sait pourtant que le cinéma commercial a été largement irrigué par ces recherches : les trouvailles technologiques de certains cinéastes de ces avant-gardes disparates ont ainsi pu être reprises et perfectionnées par des spécialistes disposant de moyens conséquents : on connait l'utilisation que Douglas Trumbull a faite des premières recherches menées par les frères Whitney autour de la technique du slit-scanning. Il est difficile, en réalité, de maintenir une séparation  nette entre un cinéma qui serait fait par des producteurs et des réalisateurs professionnels, bien intégré dans les circuits de production et de distribution en salle, et des recherches formelles menées par des artistes ou des cinéastes ayant pris leurs distances avec les structures commerciales. On voit bien, de toutes façons, que les voies qui permettent de passer du circuit expérimental au commercial sont multiples et l'ont toujours été. Encore faut-il essayer de comprendre ce qu'a pu être le cinéma expérimental à une époque, et ce qu'il en reste aujourd'hui...
Ceci nous ramène d'ailleurs à la fameuse querelle des dispositifs de Raymond Bellour, qui laisserait entendre que le cinéma expérimental (et avec lui l'art vidéo) s'est réincarné dans la multitude d'installations et de performances ayant surgi sous l'étiquette d'"art numérique".
Il faudrait sans doute une discussion à part, car il n'est pas certain qu'il soit possible de trouver des points de rencontre entre cinéma et art contemporain - malgré le travail de gens comme Michael Snow, Peter Greenaway ou peut-être même David Lynch.
La remarque que nous faisions plus haut concernant l'arrivée sur le marché de caméras de cinéma numérique "low cost" (après le déferlement des DSLR) devrait amener à repenser précisément cette relation entre institutionnels (cinéma commercial disons) et indépendants. En effet, dès lors qu'il devient théoriquement possible de faire un documentaire ou même un long métrage avec moins de 10K€, on ne voit pas très bien ce qui empêcherait la diffusion de tels films sur des réseaux alternatifs constitués par des salles et/ou Internet. Il est évident, par ailleurs, que l'on continue d'aller au cinéma. Mais c'est tout un pan de l'expérience du cinéma qui est en train d'être redéfini par ces nouveaux moyens de production - et de post-production, il convient de ne pas l'oublier, puisque le D-Cinéma a complètement redistribué les cartes dans ce secteur. Pas seulement dans le cas des caméras numériques, mais également en raison du développement ultra-rapide de logiciels de post-production très perfectionnés, tournant sur des stations de travail de plus en plus puissantes (la loi de Moore...) et dont les prix de revient sont en chute libre.
Que le cinéma n'ait pas l'exclusivité des images en mouvement, on le sait depuis un certain temps déjà. La télévision - qui reste quand même le principal diffuseur de films de cinéma, ou de films tournés à la manière et avec les outils du cinéma - et les jeux vidéo se sont constitués en secteurs à part entière, et dont l'esthétique et les procédés de tournage se retrouvent désormais dans la partie la plus rentable du cinéma contemporain : celle constituée par les productions à grand spectacle issues principalement du complexe hollywoodien, et qui font dire à Jacques Aumont que "le cinéma de masse est désormais revenu à la voie Méliès". Je ne suis pas certain que ce soit là la meilleure analogie possible et je ne crois pas que les films de science fiction produits par les Studios (de Blade Runner à Hunger Games 1 et 2) utilisent plus ou moins consciemment cette construction de l'imaginaire qui tourne autour du merveilleux, plutôt que le bombardement efficace produit par l'application d'effets spéciaux - la 3Ds n'est pas différente en cela : elle n'est aujourd'hui que la dernière carte abattue par la production commerciale pour ramener les jeunes spectateurs dans les salles. On peut d'ailleurs opposer à "La Voie des Studios" celle empruntée pendant quelque temps par Tim Burton, cinéaste dont la représentation du fantastique reste tout de même assez marginale dans le contexte hollywoodien et qui pourrait, par certains aspects (l'humour, certainement...) être rapproché de Méliès.