jeudi 26 décembre 2013

Où va le cinéma ? Quelques remarques à propos d'un livre de Jacques Aumont

Autour du livre de Jacques Aumont, Que reste-t-il du cinéma ? C'est assez rapide j'en conviens, mais il y a tellement de choses dans ce petit livre que je pense revenir dessus un peu plus tard.
Ce livre est (sans doute) une interrogation sur l'avenir de l'expérience de cinéma "à l'ère de sa reproduction numérisée" pour paraphraser le sous-titre d'un livre récent de Guillaume Basquin - qui lui-même a surement paraphrasé Walter Benjamin. Mais, heureusement, J. Aumont n'en reste pas à une interrogation angoissée mêlée de regrets. Il constate simplement que c'est la manière de voir des films, ou plus largement des images animées, qui a changé.  Ainsi, "aller voir un film au  cinéma n'est plus que l'une de ses formes possibles, et n'est sans doute plus, pour beaucoup de jeunes gens, la forme majoritaire" (p.10). Mais cependant, c'est une expérience particulière qui continue "de distinguer [le cinéma] comme porteur de certaines valeurs, dont il a l'exclusivité" (p.12)
Mais il convient tout de même de préciser ce qui est entendu ici par cette "expérience de cinéma". En effet, qu'est-ce que le cinéma ? Un dispositif immersif qui ne peut exister que dans certaines conditions et dans certains lieux ? Une question de structure narrative autour d'une durée strictement encadrée par les possibilités de projection en salle ? La discussion autour de L'Arche russe, de Sokourov, est intéressante car elle désigne en fait le principal problème autour duquel s'affrontent les exégètes du dispositif canonique. Le montage, tout d'abord, et ensuite le support bien sûr.
L’œuvre de Sokourov s'est  vue dénier le statut de film (par certains critiques) au vu qu'elle n'aurait pas été tournée en un seul plan, mais serait le résultat d'une combinaison de compositing et de divers processus réalisés en post-production. Aumont balaie en fait l'argument de cette non-conformité en considérant que le film au final c'est "non pas la genèse de cette œuvre et les actes de production qu'elle a engagés, mais le résultat tel qu'il apparait, phénoménalement, sur un écran et pour un spectateur" (p.19).
L'autre question, celle qui revient le plus souvent parmi les cinéphiles qui regrettent la réalité "matérielle" de la projection d'un film en bobines, c'est bien sûr celle du "numérique". Il existe ainsi une catégorie de spectateurs de cinéma pour lesquels un film c'est d'abord de la pellicule cinématographique et une bande régulièrement perforée et non "une vidéo à très haute définition" (Guillaume Basquin, Fondu au noir, p.17).
J. Aumont, pour sa part, reconnait le numérique à "sa froide perfection" (en parlant de la projection en salle). Il note que les premières machines vidéo, "bien rudimentaires" sont apparues il y a trente ou quarante ans.
Remarque en passant : la vidéo HD analogique produite par la NHK et exhibée à Montreux en 1983, aurait pu facilement être exploitée en salle (après report sur film, bien évidemment : kinéscopage). Apparemment le moment n'était pas venu : considérations tant idéologiques (pas question de laisser la vidéo empiéter sur le film) que techniques (manque de dynamique, de latitude dans les contrastes, absence de nuances dans l'image...) ou politico-économiques (système japonais contre volontés nationales européennes ou américaines)
Par ailleurs, je ne suis pas absolument certain d'être capable de juger de la sensation de chaleur ou de froideur que me procurent des technologies de reproduction des images animées, en particulier pendant une projection dans une salle obscure.
De même qu'il m'est difficile de déclarer, en revoyant tout à l'heure "Duel au Soleil" de King Vidor, sur Arte, "ça ce n'est pas une séance de cinéma", parce que je suis devant ma télé HD, installé dans mon salon en plein après-midi... et non pas dans une salle obscure, avec dans le dos un bon vieux projecteur 35mm et quelques scratchs sur la pellicule qui apparaissent aussitôt à l'écran.
Il est parfois possible pour un spécialiste de faire la différence entre une image numérique et une image argentique : cela se voit encore très bien sur certains détails, comme la reproduction des flammes ou la netteté des contours d'un visage - on en est d'ailleurs arrivé au point où il faut "dégrader" la qualité de l'image 4K afin que subsiste l'effet "film" ! Comme s'il existait une ontologie de l'image filmique et un goût particulier et immuable pour une certaine forme de représentation. Il est bon pourtant de rappeler les transformations que la photographie - pour prendre cet exemple - a connues depuis un siècle, transformations (évolutions ?) qui l'ont éloignée progressivement du statut strictement documentaire qui était le sien - même si je n'oublie pas le travail de Marey et Muybridge, mais c'est une autre histoire.
Laissons donc à Guillaume Basquin et aux thuriféraires de l'image argentique le goût du café en grains de la maison Verlet, et occupons-nous plutôt de nos capsules Nespresso... Et commençons par l'outil de base de la production cinématographique : la caméra elle-même.
Il est un fait, c'est qu'au delà de la simple comparaison des matériaux argentique vs. numérique, une caméra film a (encore) pour elle la compacité et la simplicité d'utilisation. Pas de réglages compliqués à prévoir pour l'enregistrement (codecs, espace colorimétrique, LUT, etc.), pas de câbles qui trainent, pas d'enregistreur externe. Pas moyen en revanche d'évaluer l'image enregistrée (le moniteur reste un simple témoin vidéo). La caméra numérique, en revanche, nous permet, pour peu que l'on dispose d'une sortie HD-SDI et d'un moniteur vidéo de qualité, de regarder une image qui présentera des caractéristiques pas trop éloignées du rendu final. Tout ceci reste évidemment assez relatif, puisqu'on sait qu'en cinéma numérique il faut presque obligatoirement passer par la case étalonnage numérique, mais c'était aussi le cas en argentique. On voit cependant arriver sur le marché de plus en plus de caméras numériques à grand capteur, qui présentent une ergonomie assez proche de celle des caméras vidéo ENG : compacité, légèreté, enregistrement en interne dans des codecs de qualité, tout en maintenant des résolutions et des formats proches du cinéma 35mm.
Remarque : le nombre de films tournés avec une Alexa (ARRI) augmente sans cesse, à tel point que cette caméra est en passe de devenir le standard de l'industrie - un peu comme Panavision avant elle pour l'argentique. On notera d'ailleurs que cette caméra n'est pas 4K mais 2,5K tout au plus (résolution à l'enregistrement : 2880x1620 et on reste en 16:9) et ça passe très bien en salle sur de grands écrans.Dans le même temps, deux autres "innovations" sont en passe de changer radicalement (on abuse un peu de l'adverbe, mais c'est comme ça) les technologies de prise de vue en numérique : la première concerne la disponibilité depuis peu de caméras de "cinéma numérique" low cost, et c'est la firme australienne Blackmagic Design qui est en pointe sur ce segment du marché. BMD a mis en vente une caméra 2,5K qui délivre des fichiers RAW (CinemaDNG pour être exact) avec un capteur un peu plus grand que le format S16, une monture EF (interchangeable) et l'enregistrement en interne sur disques SSD. Le tout pour moins de 2K€ TTC ce qui, il y a cinq ans aurait paru tout simplement incroyable. Depuis, BMD travaille sur un modèle 4K, avec un capteur S35 natif et qui est annoncé à moins de 4K€ cette fois.
La deuxième innovation concerne le travail effectué par de petites firmes ou des communautés de "nerds" qui tentent de développer et de mettre sur le marché des caméras issues de projets "open source".  Le plus remarquable actuellement semble être celui d'une firme autrichienne Apertus, qui serait dans les dernières étapes du développement d'un projet de caméra 4K dénommé AXIOM.


Critique de Expanded Cinema (Gene Youngblood) par J. Aumont (p.44 et suivantes) :
J. A. oublie que le mouvement vers un cinéma "en expansion" n'est pas l'apanage du mouvement "hippie" comme il l'appelle, mais qu'il est né bien avant cela, et qu'il faut sans doute reconnaitre parmi ses promoteurs des cinéastes et des artistes tels que Dziga Vertov, Fernand Léger, Hans Richter, Man Ray... et bien d'autres.
Le cinéma "expanded" auquel Aumont fait référence et sur lequel il concentre ses critiques a débuté en fait avec Maya Deren et Kenneth Anger, dans les années 1940. Ces deux-là n'étaient pas à proprement parler des cinéastes au sens où on pourrait l'entendre d'un Georges Cukor ou d'un Jean-Pierre Melville, mais cette distinction a-t-elle vraiment lieu d'être.
En fait, le cinéma "expérimental" se développe dans deux directions, dès les premiers films. Un mouvement largement inspiré par le surréalisme et la psychanalyse d'un côté, des recherches formelles prenant leur source dans l'art contemporain (futurisme, cubisme, puis art abstrait) de l'autre.
Voir le livre référence de Malcolm Le Grice, Abstract film and beyond (1977) ou celui de P. Adams Sitney, Visionary Film : The American Avant-Garde,1943-2000 (1974)
On sait pourtant que le cinéma commercial a été largement irrigué par ces recherches : les trouvailles technologiques de certains cinéastes de ces avant-gardes disparates ont ainsi pu être reprises et perfectionnées par des spécialistes disposant de moyens conséquents : on connait l'utilisation que Douglas Trumbull a faite des premières recherches menées par les frères Whitney autour de la technique du slit-scanning. Il est difficile, en réalité, de maintenir une séparation  nette entre un cinéma qui serait fait par des producteurs et des réalisateurs professionnels, bien intégré dans les circuits de production et de distribution en salle, et des recherches formelles menées par des artistes ou des cinéastes ayant pris leurs distances avec les structures commerciales. On voit bien, de toutes façons, que les voies qui permettent de passer du circuit expérimental au commercial sont multiples et l'ont toujours été. Encore faut-il essayer de comprendre ce qu'a pu être le cinéma expérimental à une époque, et ce qu'il en reste aujourd'hui...
Ceci nous ramène d'ailleurs à la fameuse querelle des dispositifs de Raymond Bellour, qui laisserait entendre que le cinéma expérimental (et avec lui l'art vidéo) s'est réincarné dans la multitude d'installations et de performances ayant surgi sous l'étiquette d'"art numérique".
Il faudrait sans doute une discussion à part, car il n'est pas certain qu'il soit possible de trouver des points de rencontre entre cinéma et art contemporain - malgré le travail de gens comme Michael Snow, Peter Greenaway ou peut-être même David Lynch.
La remarque que nous faisions plus haut concernant l'arrivée sur le marché de caméras de cinéma numérique "low cost" (après le déferlement des DSLR) devrait amener à repenser précisément cette relation entre institutionnels (cinéma commercial disons) et indépendants. En effet, dès lors qu'il devient théoriquement possible de faire un documentaire ou même un long métrage avec moins de 10K€, on ne voit pas très bien ce qui empêcherait la diffusion de tels films sur des réseaux alternatifs constitués par des salles et/ou Internet. Il est évident, par ailleurs, que l'on continue d'aller au cinéma. Mais c'est tout un pan de l'expérience du cinéma qui est en train d'être redéfini par ces nouveaux moyens de production - et de post-production, il convient de ne pas l'oublier, puisque le D-Cinéma a complètement redistribué les cartes dans ce secteur. Pas seulement dans le cas des caméras numériques, mais également en raison du développement ultra-rapide de logiciels de post-production très perfectionnés, tournant sur des stations de travail de plus en plus puissantes (la loi de Moore...) et dont les prix de revient sont en chute libre.
Que le cinéma n'ait pas l'exclusivité des images en mouvement, on le sait depuis un certain temps déjà. La télévision - qui reste quand même le principal diffuseur de films de cinéma, ou de films tournés à la manière et avec les outils du cinéma - et les jeux vidéo se sont constitués en secteurs à part entière, et dont l'esthétique et les procédés de tournage se retrouvent désormais dans la partie la plus rentable du cinéma contemporain : celle constituée par les productions à grand spectacle issues principalement du complexe hollywoodien, et qui font dire à Jacques Aumont que "le cinéma de masse est désormais revenu à la voie Méliès". Je ne suis pas certain que ce soit là la meilleure analogie possible et je ne crois pas que les films de science fiction produits par les Studios (de Blade Runner à Hunger Games 1 et 2) utilisent plus ou moins consciemment cette construction de l'imaginaire qui tourne autour du merveilleux, plutôt que le bombardement efficace produit par l'application d'effets spéciaux - la 3Ds n'est pas différente en cela : elle n'est aujourd'hui que la dernière carte abattue par la production commerciale pour ramener les jeunes spectateurs dans les salles. On peut d'ailleurs opposer à "La Voie des Studios" celle empruntée pendant quelque temps par Tim Burton, cinéaste dont la représentation du fantastique reste tout de même assez marginale dans le contexte hollywoodien et qui pourrait, par certains aspects (l'humour, certainement...) être rapproché de Méliès.

mardi 17 décembre 2013

Changement de cap ?

Un changement d'intitulé ne veut pas dire forcément que l'on passe à autre chose. Quoique... Les dernières péripéties autour de la réforme des formations technologiques (BTS surtout) nous ayant convaincus qu'il n'y avait pas grand-chose à chercher de ce côté là, il pouvait sembler plus judicieux de se recentrer sur l'essentiel : l'audiovisuel et ses transformations, déjà largement achevées autour de la question du numérique et de la production en réseau. On pourrait d'ailleurs, en paraphrasant le titre que Les Cahiers du cinéma avaient donné à leur numéro spécial consacré à cette question, dire que "la révolution numérique est terminée".
Bon d'accord, et après ? Qu'est-ce qui change réellement dans les conditions de la production, les relations de travail ou les besoins en formation ?  En apparence, pas grand-chose : on continue de produire des émissions de télévision passe-plats en prime time, de tourner des comédies "populaires" pré-achetées par les chaines de télévision, de remettre régulièrement en question le statut des salariés du secteur (voir les péripéties autour de l'application de la convention collective du cinéma), de déverser chaque année des dizaines de nouveaux entrants, fraichement diplômés, sur un secteur qui n'en a pas besoin.
Pourtant, depuis quelques années maintenant, on a pu voir émerger une réflexion sérieuse (universitaire pour l'essentiel) ayant pris pour objet, d'une part les conséquences économiques et sociales de cette transformation, et d'autre part l'étude d'un nouveau paradigme, mêlant technologie et esthétique au cœur du changement.
Les enjeux intellectuels de ce débat nous paraissaient suffisamment importants pour justifier le changement d'orientation de ce site, déjà amorcé d'ailleurs : accorder une place centrale aux contributions ayant pour thème des questions telles que la convergence, le transmédia, l'économie du cinéma et des secteurs associés, les rapports entre l'esthétique et les nouvelles configurations de production en réseau... Voila le programme, tel qu'il pouvait apparaitre dans certaines contributions récentes, par ailleurs : autour du livre de Gaudreault et Marion, par exemple, La Fin du cinéma ?
Bien des questions émergent aujourd'hui, en effet, et qui ne sont pas (uniquement) liées à la technique : l'avenir des salles de cinéma (et du secteur de l'exploitation en général), celui des travailleurs dont le statut leur vaut d'être appelés "intermittents du spectacle", le développement de modalités de diffusion des contenus qualifiées d'"hybrides" (broadcast et broadband), l'émergence de nouveaux outils et de nouveaux formats de production (la "révolution" DSLR, bien sûr), l'avenir du "spectacle" télévisuel (après le flop de la 3Ds et l'arrivée du "second screen"), etc. Et puis, bien sûr, tout ceci nous renvoie à la problématique des usages. Quel sera, en particulier, l'avenir du cinéma exploité en salle ? En effet, si la France apparait comme un pays où ce secteur connait encore une relative augmentation des taux de fréquentation, on peut se demander si on n'est pas arrivé à un pic, prélude à un tassement et à une baisse prochaine avec la généralisation des nouveaux comportements de consommation des films et des produits audiovisuels en général. Ce qui a conduit à une banalisation du spectacle cinématographique et à une remise en question de la place qu'occupait la salle de cinéma comme lieu unique et intangible de la consommation de films de cinéma. Ou, comme l'écrivent Laurent Creton et Kira Kitsopanidou dans un livre récent : "(...) Force est de constater que l'appropriation explicite par l'imaginaire des nouveaux médias numériques des spécificités distinctives de l'identité de la salle oblige cette dernière à revoir sa proposition de valeur. Loin de la dé-ritualisation et de la démystification présumées de l'expérience cinématographique, les nouveaux environnements audiovisuels high-tech domestiques tentent de reproduire dans le confort de l'espace privé la sensation d'"être au cinéma"" (Les salles de cinéma, p.14)
Le programme est chargé, et la liste est loin d'être exhaustive... Alors, ouvrons l’œil et le bon !


samedi 14 décembre 2013

Sony F5 et F55 : un filtre optique 2K en option

Tout d'abord, la disponibilité prochaine d'un nouveau filtre optique 2K (en option) pour les deux caméras : il répond au nom de CBK-55F2K. L'ajout du CBK-55F2K permet d'obtenir une image "plus douce, plus organique" (selon Sony) lorsqu'on filme en 4K. Lorsqu'on utilise le mode HFR en 2K RAW, le filtre permet d'obtenir une image plus proche de l'image cinématographique actuelle (toujours selon Sony).
Le filtre est, semble-t-il, facile à installer (voir photos ci-dessous). Infos prix et disponibilité : très prochainement.
Une question tout de même : en quoi ce filtre, dont l'utilisation revient à "dégrader" une image trop détaillée, est-il plus intéressant, à l'utilisation, qu'un "low contrast" optique, ou n'importe quel autre filtre optique permettant d'obtenir une image plus douce ? Après tout, des générations de chefs opérateurs et de photographes de talent se sont penchées sur la question du travail de l'image et de la lumière au moment de la prise de vue, dans le but d'obtenir des contours adoucis et des contrastes progressifs, et au final un rendu moins précis ou moins froidement clinique (ce que l'on reproche souvent au cinéma numérique d'aujourd'hui).
Allons-nous passer les prochaines années à tenter d'imiter le rendu des pellicules Fuji ou Kodachrome ? Etrange ironie de l'Histoire, au moment où la firme de Rochester dépose son bilan...

J'en profite pour publier deux tableaux qui synthétisent les principales différences entre les deux caméras - y compris en ce qui concerne cette question du HFR. Je n'ai pas encore vu Le Hobbit n°2. J'espère que ce sera plus convaincant que le premier...



lundi 2 décembre 2013

ARRI ALEXA vs CANON C500 : ces comparaisons ont-elles un intérêt ?



C'est bien évidemment une des grandes tendances des sites vidéo et D-Cinéma : les mises en relation du genre compétition entre caméras et entre caméras et DSLR (par exemple) se retrouvent à peu près partout, avec des "tests" supposés approfondis et objectifs. On fera cependant remarquer - brièvement - que la plupart des acheteurs potentiels sont obligés de se contenter, pour faire leur choix, des dépliants édités par les constructeurs, des visites des commerciaux (orientées bien sûr) et des "produits" réellement tournés et visionnés sur grand écran ou sur des téléviseurs à peu près corrects.
Au moment où on redéfinit les orientations et les évolutions en matière d'équipements de différents cursus d'enseignement du cinéma et de l'audiovisuel en général, il est évidemment gênant de constater que des choix d'équipements vont se faire, encore une fois, au petit bonheur la chance, avec assez peu de paramètres techniques pris en compte et des différences d'appréciation très importantes dans la manière dont sont regardées les mêmes images par les uns et par les autres.
Il y a eu une époque, pas si lointaine, où l'achat de caméras par une structure importante (une chaine de télévision par exemple) nécessitait le prêt et la mise en relation sur des bancs de test plutôt élaborés de caméras provenant de trois ou quatre constructeurs. Ces tests duraient en général une bonne dizaine de jours et certains constructeurs étaient amenés à effectuer des modifications sur les équipements proposés à la suite des conclusions et des remarques de leurs clients potentiels.
Il est évidemment regrettable que les choix d'équipements dans des structures amenées à former de futurs techniciens de l'audiovisuel soient effectués sans réelle concertation entre les formateurs, ni prise en compte d'ailleurs de leurs remarques par leur hiérarchie.
On pourra toujours se baser sur le genre de comparaison que l'on trouve sur le blog de Shane Hurlbut, avec bien entendu toutes les réserves qu'impliquent des tests effectués en dehors des conditions réelles d'un tournage et d'un travail consécutif en post-production. Quid des paramètres propres à chaque caméra et qui peuvent demander des réglages fins pour obtenir des images optimales (ou du moins conformes aux desiderata d'une production donnée) ? Comment évaluer les compromis techniques effectués par les constructeurs et qui se traduisent par des différences en termes de performance, de prix et d'ergonomie ?
Une caméra telle que la Blackmagic Cinema Camera est-elle comparable à une F5 ou une C300, alors même qu'elle dispose de l'enregistrement en RAW (CinemaDNG) dès sa version de base ? 
Signalons par ailleurs l'organisation en 2012, par la firme américaine Zacuto, d'un "contest" appelé The Great Camera Shootout, qui donna lieu à des évaluations intéressantes entre différentes caméras et DSLR au cours de tests techniques et de situations de tournage assez proches de la réalité... Encore une fois avec toutes les réserves que ce genre de test appelle, où l'on voit un GH3 faire mieux qu'une F3.



samedi 23 novembre 2013

Comment créer un DCP et l'utiliser avec profit pour diffuser vos œuvres

Une question récurrente ces jours-ci (en phase avec nos précédentes publications) : comment créer un DCP ou Digital Cinema Package, et comment l'exporter et ensuite l'utiliser dans un projecteur numérique de D-Cinéma. Il existe bien sûr différentes solutions, dont certaines en open source, d'autres très "pro" qui coûtent très cher ou assez cher, et d'autres encore sous forme de plug-in, pour Adobe Premiere Pro ou Final Cut Pro, par exemple.



Mais d'abord, qu'est-ce qu'un DCP ?
Q. : Qu'est-ce qu'un Digital Cinema Package  (DCP) ?
R.: Un DCP est l'équivalent numérique d'une copie 35mm en argentique. C'est l'ensemble des fichiers sauvegardés sur un disque dur, et fournis aux exploitants de salles de cinéma. Les fichiers sont compressés à partir d'un master appelé Digital Cinema Distribution Master (DCDM), et comprennent le film (image, son, métadonnées, etc.) et le cryptage le protégeant d'un éventuel piratage. Un DCP est généralement composé de fichiers MXF (Material Exchange Format) et XML, et les images sont encodées en JPEG-2000. Le DCP est aujourd'hui un standard, ce qui simplifie sa diffusion et son utilisation.

Q.: Pourquoi faire un DCP plutôt qu'une copie 35mm classique ?
R.: Il faut déjà se rendre compte que la diffusion de la projection de films en numérique a pris une importance telle, ces dernières années, qu'il n'est plus possible, pour un exploitant, de prétendre obtenir n'importe quelle copie des films qu'il compte projeter, en 35mm comme autrefois. Pour se rendre compte de l'évolution du cinéma vers le numérique, quelques chiffres (empruntés à David Bordwell, Pandora's Digital Box, p. 9 et suivantes) : en décembre 2000, il y avait environ 164000 écrans de par le monde, et seulement une trentaine de projecteurs numériques. Cinq ans plus tard, ils étaient 848. Fin 2010, 36103 écrans étaient réservés à la projection en numérique, soit environ 30 pour cent du total. Fin 2011, 80 pour cent des films distribués en Grande Bretagne l'étaient en numérique, et en Belgique les deux principaux exploitants, Kinepolis et UGC, sont passés au numérique dans l'ensemble de leurs salles. En Norvège, toutes les salles sont passées à la projection en numérique cette année-là, surtout en raison de subventions gouvernementales qui ont accéléré la transition. Au jour d'aujourd'hui, certaines majors (Twentieth Century Fox, par exemple) ont tout simplement cessé de produire des copies 35mm et bon nombre de salles n'ont tout simplement plus de projecteurs 35mm à leur disposition !
Une autre raison tient au facteur prix : pour obtenir une copie 35mm d'un film tourné en numérique et post-produit sur les systèmes de montage actuels, il faudra effectuer un "filmout", c'est à dire le processus qui consiste à convertir des fichiers numériques en film. Le coût pour un long métrage est évalué à 40 K$ environ (chiffre fourni par dcpinfo.com).
Bien évidemment il y a aussi le facteur qualité, puisqu'un fichier ne sera pas dégradé par de multiples passages dans le projecteur, contrairement à la copie film. Après, bien sûr il y a le coût du DCP.




Q.: Combien ça coûte ?
R.: Là on s'aperçoit qu'il faut aller à la pêche aux infos et que ce n'est pas toujours évident de démêler le lard du cochon. Une source qui me semble assez fiable : une boite spécialisée de Bruxelles, Charbon Studio, qui a la correction de publier ses tarifs sur son site Internet. Bon, ça reste assez cher, donc si vous avez un court métrage ou que vous avez réalisé un doc avec des copains, il vaut sans doute mieux se rabattre sur du DIY, avec tous les aléas que cela comporte...
Il faudra vérifier toutefois que le prix de la prestation inclut :
1. Le Master, avec tous les fichiers (audio, vidéo, sous-titres, etc.)
2. Le QC (Quality Check) après vérification que tous les problèmes éventuels ont bien été réglés (drop out, synchro, gamma, colorimétrie, etc.)
3. Le transfert du DCP vers une unité de sauvegarde, qui peut être un disque dur acheté dans n'importe quel magasin ou bien une unité professionnelle disposant d'un système de transport sécurisé tel que le DX115, appelé CRU.

Q.: Quelles normes pour le D-Cinéma
R.: Il existe des règles qui varient assez peu selon les pays (la normalisation fonctionne assez bien). L'Academy of Motion Picture Arts and Sciences a adopté les spécifications suivantes pour les DCP :
Video:                24.00 frames per second
Compression:     JPEG2000
Color Space:       XYZ
Video Format:     2K - 2048x1080 container size (1920x1080, 1998x1080, 2048x858 and other image sizes are acceptable)
Audio Format:     24-bit, 48 kHz uncompressed
                            Minimum 3 channels (Left,Right,Center) or 5.1 (L,R,C,LFE,LS,RS)
Audio Channel
Mapping:            1:Left   2:Right   3:Center   4:Subwoofer  5:Left Surround   6:Right Surround
Encryption:         Unencrypted material only

De son côté, la France dispose d'une norme AFNOR NF S 27-100 pour "salle de projection électronique de type cinéma numérique" dont les spécifications techniques sont les suivantes :



 Q.: Dans ce cas, comment puis-je faire un DCP ?
R. : Plusieurs solutions sont disponibles. Il existe des solutions professionnelles, comme celle proposée par Rovi, dénommée Total Code Studio, ou encore easyDCP, qui est intégré aujourd'hui à la toute dernière version de Resolve, la suite d'étalonnage de Blackmagic Design.On pourra aussi s'intéresser à des solutions open source, comme OpenDCP ou, plus facile, DVD-o-matic qui fonctionne plutôt bien, semble-t-il.
Le seul problème (mais il est de taille) avec toutes ces solutions, c'est que le DCP ainsi crée ne peut être réllement testé et évalué que sur grand écran, avec un projecteur D-cinéma. Les DCP utilisent un espace colorimétrique différent de celui intégré à votre moniteur informatique ou vidéo, ce qui signifie qu'il n'est  possible, sur une station de travail, que d'émuler le look spécifique de la projection en salle.

Q.: Où peut-on trouver les spécifications du DCP ?
R.: Dans les documents suivants, SMPTE 428-1-2006 D-Cinema, ISO/IEC 15444-1, SMPTE 428-2-2006 D-Cinema, SMPTE  428-3-2006 D-Cinema


Au final, pour permettre la réalisation du DCP dans une des solutions proposées, il vous faudra le film dans un fichier HD Quicktime ou AVI, compressé au format JPEG-2000, avec les spécifications suivantes :

Video : 24, 25, 30, 48, 50, and 60 fps @ 2K
            24, 25, and 30 fps @ 4K
            24 and 48 fps @ 2K stereoscopique

Format : HDTV 1920x1080 ou 3840x2160 pour du 16:9 (~1,78:1)
              Flat 1998x1080 ou 3996x2160 (~1,85:1)
              Scope 2048x858 ou 4096x2160 (~2,39:1)

Bit rate max. : 250 Mbit/s.
Espace colorimétrique : XYZ
Résolution : 12 bits par pixel (soit 36 bits au total)

Fichier encodé en sortie DCP : H.264 ou Uncompressed

Audio : 3 canaux au minimum (Gauche, Droite et Centre) ou 5.1 (L,R,C,LFE,LS,RS) - intégré dans un fichier Quicktime ou bien fourni dans des fichiers mono 24bits/48kHz/96kHz, WAV ou AIFF

Mapping Audio : 1:Gauche, 2:Droite, 3:Centre, 4:Subwoofer, 5:Surround gauche, 6:Surround droite


mercredi 13 novembre 2013

La FIN du cinéma ? (suite)

David Bordwell l'a bien noté : les films sont devenus des contenus et on parle d' ingest et non plus de chargement de bobine. L'environnement technique/technologique tel qu'il apparait dans le circuit menant de la production à l'exploitation (le workflow) a complètement changé, avec des conséquences irréversibles sur la nature même de l'objet filmique.
Cela a-t-il changé quelque chose pour le spectateur ? Pas vraiment si l'on s'en tient à l'expérience vécue dans les salles - et cela malgré les discours (passéistes ?) qui veulent démontrer qu'il ne saurait y avoir d'expérience de cinéma en dehors de la projection sur écran d'une bande perforée, couchée sur un support argentique - ce qui revient à nier au numérique la possibilité même de la projection, et ceci n'est pas tout à fait faux, puisque dans ce cas il ne s'agit pas d'un processus fondé uniquement sur les propriétés optiques d'une lentille et le passage d'une bande devant une lampe de forte puissance (on pourra éventuellement s'intéresser aux caractéristiques des DLP et du DCI en recherchant des éléments de bibliographie ou des ouvrages sur Internet).


Passons sur toutes les situations qui, comme l'écrit Jacques Aumont, "battent en brèche le dispositif cinématographique canonique" (Que reste-t-il du cinéma ?, p.77, Vrin 2012). En réalité, ce dispositif n'a probablement jamais existé. En effet, même la supposition d'une immobilité forcée du spectateur devant l'écran ne tient pas, puisqu'il y a eu les drive in et qu'il y a encore des projections en plein air et des projecteurs dans la salle - il y a des projecteurs dans la salle depuis que le 16mm existe, voir à ce sujet le texte éclairant de David Bordwell, déjà cité. Et ce qui reste du dispositif est donc, toujours selon Jacques Aumont, "en un sens, abstrait, puisque ce n'est jamais qu'une référence mentale à l'idée de dispositif... ce qu'on continue d'appeler le dispositif cinéma existe en somme aujourd'hui autant qu'il y a un demi-siècle, parce que ni aujourd'hui, ni autrefois, il n'a jamais été parfaitement respecté dans la réalité." (Aumont, op. cit. p.78)
Là où pourtant l'expérience de cinéma a changé de manière radicale, c'est dans l'environnement de diffusion privé qui s'est transformé progressivement au cours des années, jusqu'à devenir un système doté de caractéristiques potentiellement équivalentes à celles que l'on trouve dans les salles et capable, en plus, d'interagir avec le réseau, ne serait-ce qu'en utilisant la VOD.
Il est évident, en effet, que pour la plupart des spectateurs l'arrivée d'écrans de plus en plus performants - le 4K avant le 8K, et l'UHDTV avec des diffusions prévues dès 2014 - sont autant d'éléments qui rendent caduque l'expérience de cinéma telle que nous pouvons la vivre aujourd'hui. Ce n'est pas la 3D stéréoscopique, qui n'est pour le moment qu'une manière de faire du neuf avec une technologie ancienne, qui changera cette évolution. Quoi de plus rédhibitoire, en effet, que de devoir porter ces lunettes en plastique, à chaque séance, pour se voir gratifier de quelques effets de jaillissement qui font ressembler l'expérience de cinéma à une attraction foraine ?


D'autre part, la constitution même de l'expérience de cinéma, dans sa structure narrative et dans sa durée, est interrogée aujourd'hui par cet autre phénomène, lié à la télévision, que constitue la diffusion en masse de séries. Non pas qu'il s'agisse d'un genre nouveau. La télévision, après la radio, a depuis longtemps développé ce genre, basé sur le feuilleton et les rendez-vous à dates et heures fixes. C'est l'extension à des thématiques de plus en plus variées et la sophistication de ces histoires, constituées d'épisodes aux durées limitées et aux codes bien identifiés, qui constitue la véritable nouveauté. Il y a désormais des chaines de télévision qui ne diffusent que des séries et des forums sur Internet qui sont le rendez-vous des aficionados du genre. Il est possible, d'ailleurs, que la télévision ait trouvé là son arme ultime contre le cinéma dans les salles...
Car, à vrai dire, c'est le problème de l'exploitation dans les salles qui se pose, plus que celui du changement de nature de l'expérience de cinéma - en effet, et comme l'a très bien écrit David Bordwell, combien de spectateurs ont-ils réellement pris conscience du fait que la projection des films était désormais le résultat du processus de digitalisation ?
On sait aujourd'hui qu'en dehors des grandes métropoles remplir les salles des multiplexes à toutes les séances est devenu une gageure. Les films ont désormais une durée de vie en salle très courte, parfois même très réduite, et même les grosses locomotives ne restent pas à l'affiche plus de trois ou quatre semaines. Lorsque, dans une ville de taille moyenne telle que Poitiers (80,000 habitants) un exploitant de multiplexe annonce 230,000 places vendues au cours du dernier exercice, on peut raisonnablement se demander quel est le seuil de rentabilité pour un tel ensemble.
Certains films réussissent pourtant à remplir les salles, et pour une durée appréciable. Cependant, on peut estimer que l'engouement qu'ils provoquent n'est déjà plus de l'ordre de l'expérience de cinéma telle que pourraient la définir bon nombre de cinéphiles. La plupart des spectateurs d'Intouchables, par exemple, n'allaient pas souvent au cinéma, ou bien s'y rendaient lorsque le spectacle était (semble-t-il) de nature à provoquer leur adhésion en jouant sur des particularismes ethniques ou socio-culturels. Bien loin de considérations esthétiques, parfois. Il faudrait sans doute plus d'Intouchables pour sauver l'exploitation en salle, mais la nature même de ces évènements fait qu'ils sont impossibles à prévoir.
Au fond, c'est aussi la question du cinéma en tant que divertissement populaire qui est posée. La cinéphilie galopante qui, en France tout au moins, a envahi la plupart des festivals de cinéma et les cursus scolaires, a peut-être plus fait pour éloigner les spectateurs des salles de cinéma que la télévision et les matches de football réunis.
Il devient parfois très difficile de dire qu'on s'amuse plus en allant voir "Iron Man 3" que le dernier opus de tel auteur estimé et généralement adoubé par la doxa des cinéphiles. Et il faut bien reconnaitre que cet "auteurisme triomphant" (la formule est de Yannick Dahan) a toujours eu du mal à attirer les foules, et cela malgré les certificats de bonne conduite délivrés par les critiques (peut-être faudrait-il définir d'ailleurs ce que peut bien représenter cette critique de cinéma, mais ce sera pour une autre fois...)
De fait, si le cinéma souffre de la concurrence de la télévision et des médias connectés, il souffre surtout de ne plus être perçu comme un divertissement populaire majeur - le principal d'ailleurs, jusqu'aux années 1960, et d'avoir été remplacé progressivement dans ce rôle par d'autres formes de spectacle, dont les compétitions sportives semblent être le modèle directeur. D'où, sans doute, ce développement actuel des retransmissions en direct à l'intérieur des salles de cinéma, lesquelles ne sont plus réservées à la seule projection de films de cinéma - aux séances codifiées en termes de contenu, de déroulement et de durée - mais qui peuvent désormais permettre de regarder en direct des matches de hockey sur glace ou des comédies musicales dont la temporalité n'est pas la même. Cette forme de diversification suffira-t-elle à sauver l'exploitation en salle ou allons-nous assister à la création d'une nouvelle économie de niche, à la manière de ce qui est advenu du théâtre, créant ainsi une sorte de cinéma des cinéphiles ?  Pas sûr que ce soit une bonne voie pour l'avenir du "7ème Art".

dimanche 3 novembre 2013

La FIN du cinéma ? Notes à propos du livre de Gaudreault et Marion

 Choisir comme titre une référence à celui du livre de André Gaudrault et  Philippe Marion, intitulé justement "La Fin du Cinéma" c'est d'une certaine façon se ranger du côté de ceux qui pensent que, effectivement la question de la fin d'une certaine forme de cinéma est posée. Ce n'est pas forcément accepter l'idée que le cinéma, en tant qu'expérience culturelle collective, est appelé à disparaître. Dans un autre domaine, l'économiste Joseph Schumpeter montrait que le processus de destruction d'anciennes formes de production était concomitant de l'apparition d'un nouveau système, porté par des vagues d'innovations appelées à transformer la société toute entière. C'est ce qu'il qualifiait de "destruction créatrice".
On peut penser que le processus enclenché depuis quelques années déjà sous le qualificatif de "révolution numérique" procède des mêmes principes et nous amènera à terme aux mêmes transformations... Nous reviendrons sur cette question, avec une revue complète du livre de Gaudrault et Marion, et en y ajoutant sans doute d'autres titres. A remarquer tout de même que cette question (celle de la "fin du cinéma") s'est posée déjà à plusieurs reprises, ne serait-ce qu'au moment où la concurrence de la télévision a amené les industriels et les producteurs à développer de nouvelles technologies (cinémascope, relief), censées enrichir l'expérience de la projection cinématographique en salle, et contrer ainsi l'influence du petit écran. En témoigne cette couverture de Paris-Match, du 25 juillet 1953, reproduite dans le livre des auteurs sus-cités. L'expérience cinématographique, en tous cas, ne se limite plus à la projection collective en salle (une salle obscure s'entend), dans une temporalité qui correspond à la durée du film. Le DVD, depuis plusieurs années déjà, et maintenant les fichiers de type MKV ou autres, permettent une expérience fragmentée et différents types d'allers et retours sur image qui transforment bel et bien la nature de la relation que le spectateur entretient désormais avec l'objet cinéma. Quid d'ailleurs des conséquences de la généralisation de la projection numérique et du DCP ? Car le fait que le support du film est dématérialisé implique forcément, à brève échéance, la disponibilité de cette distribution partout où existeront des dispositifs d'enregistrement et de diffusion compatibles. Et désormais la qualité est au rendez-vous : écrans 4K et plus et enregistreurs numériques qui deviendront progressivement accessibles au plus grand nombre.  Dès lors comment amener le public à sortir de chez soi et à se rendre dans les salles ? On aura beau répéter que voir un film de Fritz Lang ('Secret beyond the door' par exemple) sur un écran OLED ou dans une salle de cinéma ce n'est pas la même chose (noir et blanc oblige), on ne convaincra pas grand monde, surtout dans les villes où les salles dites "d'art et d'essai" n'ont pas projeté de tels films depuis des lustres...                                                                           
Certains d'ailleurs, comme Peter Greenaway, pensent que le cinéma est bel et bien mort et enterré, et estiment que cette agonie a commencé en 1983, avec l'apparition de a télécommande pour le magnétoscope (rien à voir donc avec le numérique, puisque le dispositif d'alors est simplement électronique, même s'il comporte des circuits intégrés numériques). En réalité, Greenaway pense qu'à la projection en salle, avec des spectateurs passifs devant l'écran, est en train de se substituer une expérience interactive, plus en phase avec les développements actuels en matière de jeux vidéo, de performances multimédia (lui-même a été très actif sur ce terrain, en témoigne cette vidéo sur YouTube), et de télévision connectée, dernière tentative en date des médias de masse et des industriels pour récupérer l'énorme potentiel généré par les réseaux sociaux. Cette révolution remettrait en question les fondements mêmes de la production de films de cinéma, telle que nous la connaissons - disparition de la caméra par exemple, comme il le dit dans cette interview diffusée sur YouTube






Un autre aspect de cette transformation radicale de la production et de la diffusion - qui n'est pas abordé par Gaudreault et Marion, et à peine effleuré par David Bordwell dans son dernier ouvrage, concerne le futur de certains métiers liés à la post-production et l'avenir de ce secteur tout entier d'ailleurs. En effet, avec les développements que l'on connait, il est devenu relativement facile pour un  "indépendant" (ne parlons pas d'amateur, car cette catégorie n'existe plus) de s'équiper avec du matériel et des logiciels autrefois réservés à des sociétés de production disposant d'une infrastructure conséquente. Après Final Cut Pro, devenu le principal concurrent d'Avid, le dernier pavé dans la mare digitale nous vient du britannique Blackmagic Design qui, après avoir racheté DaVinci et son fameux logiciel d'étalonnage numérique Resolve, en a mis à disposition de tous une version gratuite, dite "Lite",  avec quelques limitations par rapport à la version complète, mais qui est parfaitement opérationnelle, multiplateforme et permettant à toute personne équipée d'une machine récente, tournant sous Mac OS ou Windows,  de se lancer dans l'étalonnage professionnel de ses rushes. Sans parler du fait que cette plateforme permet aussi d'obtenir un DCP final grâce à l'intégration de EasyDCP. On est désormais loin du laboratoire et des allers et retours avec les copies de travail. Un post récent de Noam Kroll rend compte de cette évolution et s'interroge d'ailleurs sur l'avenir des laboratoires et des sociétés de post-production.

mercredi 30 octobre 2013

'Gravity' et le Son



Gravity, le blockbuster d'Alfonso Cuaron, ce ne sont pas seulement des effets visuels hors norme, comme on peut le lire un peu partout. C'est aussi un traitement du son particulièrement efficace dans un milieu où l'on imagine que, bien  sûr, il n'y a pas de son. Alors comment rendre l'atmosphère atone de cette dérive spatiale, surtout en considérant que l'essentiel du film se passe en dehors de l'atmosphère artificielle d'une navette ou d'une station spatiale ? Selon Alfonso Cuaron, le son du film a été conçu en respectant les lois de la physique, à savoir que bien que l'espace soit considéré comme du vide, les ondes sonores peuvent être propagées par les vibrations produites par l'interaction entre éléments (les chocs en particulier), au lieu de l'être par l'atmosphère. C'est pour cela que l'équipe audio a enregistré des vibrations avec ses microphones, plutôt que l'audio propagé à l'air libre.
On notera encore que le son "surround" a été étudié de manière à amplifier l'expérience immersive des spectateurs. Cuaron explique que, quel que soit le lieu d'où provient le son dans le film, que cela soit de derrière un personnage, du hors-champ ou à partir d'un point de vue subjectif, les spectateurs l'entendront de la même manière. Si, par exemple, Sandra Bullock entend quelque chose derrière elle, les spectateurs l'entendront uniquement à partir des enceintes situées derrière eux dans la salle.
Voici une vidéo publiée sur le site SoundWorks Collection, qui lève un coin du voile et qui nous donne par là quelques éléments de réponse :

lundi 28 octobre 2013

SATIS 2013 : demandez votre badge !

Le SATIS 2013 aura donc lieu, comme l'an dernier, à la Halle Freyssinet. C'est donc le moment de demander votre badge et d'éviter d'attendre à l'entrée. La page permettant de le faire en quelques secondes se trouve ici.



Et bien entendu, en attendant d'y être, n'oubliez pas d'aller faire un tour sur notre page facebook !

lundi 21 octobre 2013

Avid Media Composer et l'exportation des médias

Pas toujours facile de gérer et d'exporter des médias à partir d' Avid Media Composer (je viens d'en faire l'expérience avec un collègue), aussi ce petit guide de l'export avec Media Composer me parait plutôt utile :
Part 1
Part 2

Et voici une petite vidéo qui aidera à mieux comprendre le processus


mardi 15 octobre 2013

Newtek et le nouveau monde des mélangeurs vidéo (2)

Petite mise à jour, suite à la découverte de cette revue du TriCaster 8000 sur Streaming Media Producer. Il est évident que cette machine (ou ce concept ?) facturé à 40 K€ environ est très concurrentiel, surtout lorsqu'on pense que, pour la même somme, Sony vous offre généreusement un panneau de contrôle, avec un soft datant d'une dizaine d'années déjà et... rien d'autre. Pas le moindre DVE sur le DVS3000, sinon il faut passer au modèle au-dessus. Avec la rallonge sur le budget qui va avec, bien sûr.
Le TC8000, qui est tout de même le navire amiral chez NewTek, dispose de 45 canaux d'effets numériques (contrôlés par le TransWarp engine, qui est un générateur d'effets 3D capable de produire des transitions en warp pour chaque source, y compris les incrustations) et 26 configurations de studio virtuel, avec toutes sortes de mouvements de caméra possibles.
En sortie, le TC8000 dispose de 14 connecteurs en hardware, est capable d'enregistrer sur 8 canaux différents sur 4 disques de 2To chacun , et peut fournir de la vidéo en streaming à des résolutions de 720p. Tout ceci peut être produit en "live", en même temps que des titrages, des incrustations de type studio virtuel, et la diffusion en direct vers des réseaux sociaux (facebook, twitter, etc).
Cette capacité de communiquer en direct avec les réseaux sociaux revient en fait à configurer un compte sur un réseau de son choix, et à envoyer les vidéos et les infos, ou le streaming live, pendant l'évènement considéré. Le TC8000 donnera la priorité au streaming, de façon à ne pas interrompre le flux en live. Autant de caractéristiques qui deviennent petit à petit incontournables dans un environnement de production live qui devra intégrer progressivement les réseaux IP en combinant SDN (Software Defined Networking) et "lossless" Ethernet.
Les caractéristiques les plus impressionnantes restent tout de même celles fournies par la batterie d'effets spéciaux possibles. Ceux-ci sont organisés autour de 8 bus de Mix/Effects (M/E), avec re-entry, ce qui permet de récupérer un flux déjà produit et de l'intégrer dans la production en direct.
Cette capacité est particulièrement intéressante dans la cas de la production intégrant un "studio virtuel", ce qui reste tout de même le point fort du concept NewTek. Avec les versions précédentes du TriCaster, on pouvait insérer plusieurs entrées (plusieurs flux) dans un plateau virtuel, mais avec une seule sortie. Avec les bus ré-entrants, on peut désormais insérer la vidéo composite crée dans la production en direct et créer une autre composition, comme celle montrée à l'image ci-dessous, où l'on distingue déjà trois layers en direct (3 couches).


Cette possibilité est particulièrement utile dans le cas d'une autre fonctionnalité spectaculaire, le motion-tracking en live, comme on le voit dans les deux photos suivantes, récupérées chez Studiotech.tv


Au final, on peut dire que le système n'a pas fini de faire parler de lui, surtout dans ses versions plus légères, comme le TriCaster40, qui serait peut-être lui le compagnon idéal pour la production en streaming.

lundi 14 octobre 2013

Adobe et le Cloud : qu'en est-il au final ?

Reçu il y a quelques jours :

Publication  Adobe, renvoyée par  Digital Cinema Society . Aujourd'hui, pas beaucoup plus d'informations, après que tous les mots de passe des clients du Cloud aient été ré-initialisés. Stratégie de communication un peu opaque, il faut bien dire...

Adaptateurs B4 vers S35

Où l'on redécouvre tout l'intérêt d'une commande servo et d'un rapport de focale important pour les tournages en S35.
La société IBE Optics a récemment lancé un nouvel adaptateur B4 pour caméras 4K avec capteur S35. C'est le HDx35 MarkII. Ceci confirme tout l'intérêt que portent les cinéastes actuels (documentaristes en particulier) pour la possibilité de filmer avec des rapports de focale importants tout en conservant les avantages dus à la dynamique des capteurs S35 en termes de résolution et de rapport de contraste.




 


A voir aussi les adaptateurs récemment annoncés par Sony pour les F5/F55 :
http://figurefond.blogspot.fr/2013/09/shoot-documentaries-with-s-35-une.html



mercredi 9 octobre 2013

Les 25 innovations technologiques qui ont changé la télévision

Le magazine en ligne Broadcast TECH a répertorié, dans sa dernière livraison, les 25 produits et innovations technologiques supposés avoir "changé la donne dans la production télévision" (game changer technologies). Ces innovations commenceraient avec le magnétoscope Ampex VRX-1000 en 1956, et  nous conduiraient jusqu'aux caméras D-Cinéma (RED et ARRI, en particulier), en passant par l'invention du timecode SMPTE (1975), la Paintbox de Quantel (1982), le magnétoscope numérique Sony DVR-1000 ou D1 (1987), Avid Media Composer (1989), le steadicam (utilisé en TV à partir des années 1990), le digital Beta (1994)... Broadcast TECH reconnait cependant en avoir oublié un certain nombre. Nous pourrions rajouter, entre autres : le caméscope ENG Betacam SP (1982), le mélangeur vidéo Grass Valley GVG300 (1979), qui remporta un Emmy Award pour la technologie E-MEM (voir le graphique ci-dessous), le logiciel d'effets spéciaux temps réel FLAME, de la firme Autodesk (auprès duquel After Effects fait figure de sympathique jouet pour élèves d'écoles de cinéma), la LSM d'EVS pour le slow motion et le replay, machine qui a complètement changé la manière de filmer et de regarder les retransmissions sportives... Et j'en oublie aussi un certain nombre.


Une chose est sûre : la télévision d'aujourd'hui n'a plus grand-chose à voir avec celle qui jaillissait des studios des Buttes Chaumont pendant les années 1960. Est-ce à dire que les réseaux d'aujourd'hui (les networks, de grande ou de petite taille) ayant achevé leur mue vont continuer à régner sur les circuits de diffusion de programmes de télévision ? Rien n'est moins sûr. En effet, l'arrivée de nouveaux "players" aux dents longues (Google en particulier, avec YouTube Live, Apple peut-être...) pourrait présager une révolution complète dans les  modes de production et de consommation des programmes, surtout si la diffusion sur Internet se "démocratise" grâce à l'extension des réseaux (Celle-ci est en train de se réaliser avec la fibre optique, bien sûr, et très certainement la 4G, qui seront amenées à jouer un rôle de plus en plus important dans cette évolution).
En attendant, si vous avez accès à YouTube Live et que vous disposez d'une bonne connexion xDSL, c'est le moment de tenter l'expérience.


mardi 8 octobre 2013

Sony RAW Viewer 2.0 : le 4K en ligne de mire

Nouvelle version de l'utilitaire RAW Viewer de Sony. Ce logiciel permet le debayering des fichiers RAW enregistrés sur les caméras Sony ( F5, F55, FS700 avec l'upgrade HXR-IFR5/AXS-R5). Le logiciel permet d'effectuer une correction colorimétrique précise et l'export en PRORES et HDCAM SR

What's New

  • Support 2K RAW shot by F55 and F5 with R5
  • SDI Monitor Output
  • Control ASC-DCL by tracker ball panel
  • ProRes Export
  • HDCAM SR File, SR-SQ, SR-HQ Export
  • 1.3x De-Anamorphic Preview
  • De-Anamorphic HD Video Export
  • Clip Recovery of F55RAW

Recommended Environments


Mac
OS: OS X Lion (10.7) / Mountain Lion (10.8) 64-bit
HDD: More than 100 MBytes of free space
CPU: Intel Core i7, Xeon (Nehalem and later)
Memory: 4GB or more
GPU: AMD Radeon HD 5000 or 6000 or 7000 series
Model: Mac Pro Mid 2010, iMac Mid 2011, MacBook Pro Early 2011 and later

Windows
OS: Windows 7 (Service Pack 1) / 8 64-bit
HDD: More than 100 MBytes of free space
CPU: Intel Core i7, Xeon (Nehalem and later)
Memory: 4GB or more
GPU: NVIDIA GeForce 400 or 500 or 600 series

samedi 5 octobre 2013

Adobe et le Cloud : les ennuis commencent !

Reçu hier soir :

Publication  Adobe, renvoyée par  Digital Cinema Society (dont la page facebook a té supprimée depuis ???)

mardi 1 octobre 2013

NewTek et le nouveau monde des mélangeurs vidéo

IBC 2013 : pas beaucoup de nouveautés du côté des mélangeurs de production, sans doute aussi parce que ce salon n'est en fait qu'une répétition du NAB, et que tout a déjà été dit de ce côté là. Mais pas seulement : il est notoire que ces machines, dont les architectures ne changent pas beaucoup au fil des années, sont avant tout destinées à des structures dont la raison d'être demeure la production vidéo en multi-caméras, en direct ou non, mais de toutes façons avec peu ou pas de post-production.
On a pu voir cependant, au fil des années, émerger un autre contexte de production : celle destinée à la diffusion en streaming sur le Web, une diffusion dont la qualité n'a cessé d'évoluer au point d'être aujourd'hui assurée presque entièrement en HD.
Une société tire son épingle du jeu sur ce segment, depuis déjà pas mal d'années. Il s'agit de NewTek, compagnie américaine qui débuta en 1986, un peu à la manière d'un "garage start up", fondée alors par Tim Jenison et quelques "video freaks" qui mirent sur le marché le fameux "Video Toaster", connu pour être le "premier studio de télévision dans une boite" et un logiciel de création 3D , LightWave 3D, qui fit les beaux jours de toute une génération de créatifs et de game designers... La compagnie avait en fait débuté par la conception de logiciels pour l'Amiga de Commodore, avant de démarrer en fait (avec quelques autres) la révolution de la "vidéo sur le bureau" (desktop video).
Par la suite, NewTek s'est lancée sur le marché de la production "broadcast", avec un autre concept novateur : cette fois c'était un mélangeur de production entièrement contrôlé par le software - c'est à dire en se servant uniquement de la GUI servie par un ordinateur. Cette fois il s'agissait des premiers TriCaster.
On comprend dès lors que la société se soit intéressée très vite aux possibilités de diffusion sur Internet, avec en particulier le streaming d'évènements "corporate", et la possibilité de mettre en place, très rapidement, des structures de production et de diffusion sur les lieux même des tournages. En ce sens on peut dire que cette compagnie a été - avec d'autres, telles que Datavideo - à la pointe d'un développement qui parait aujourd'hui incontournable.
Il est évident maintenant que n'importe qui ayant accès à une ligne et un compte sur Internet peut commencer à diffuser des contenus en vidéo aux quatre coins de la planète. Cependant, pour produire des contenus tels que des évènements institutionnels, et le faire avec un certain professionnalisme, il faut disposer au moins d'une structure de production qui permette de commuter quelques caméras en direct, de mélanger du son et de rajouter des effets spéciaux, avant d'envoyer le flux sur le Web.
NewTek a alors développé son concept de mélangeur en software, et l'a décliné en plusieurs produits, allant du modèle d'entrée de gamme, configuré sur un simple PC (le TriCaster 40) aux machines des séries 8000 et maintenant 860, qui se présentent en fait comme de véritables mélangeurs de production,avec une surface de contrôle classique, mais qui disposent toujours de l'écran "multiview" et des interfaces graphiques crées par la société.
Pour en savoir un peu plus sur les possibilités de création en multicaméra avec le TriCaster, voici justement une série, très utile, publiée sur le site de Streaming Media Producer, et dont nous montrons ici la première vidéo :




dimanche 29 septembre 2013

Canal+, ton univers impitoyable...

Pour quelques personnes courageuses, combien continuent à se cacher la tête dans le sable ?

Bullet Time et GoPro

Une nouvelle manière de filmer est en train d'essaimer un peu partout et, surtout dans le monde de plus en plus ouvert du DIY et du tournage en DSLR. Production pas chère et, malgré tout, une qualité de plus en plus "bluffante" (pardon pour le néologisme) et qui laisse entrevoir une révolution copernicienne - pas moins - dans le monde de la production cinématographique... A voir donc ce clip tourné avec un dispositif comprenant 52 GoPros et quelques chiens de bonne composition.  Les explications sont données sur nofilmschool.com, et les vidéos sont ici :





dimanche 22 septembre 2013

Le format XDCAM

Un point sur le format le plus utilisé actuellement en production de news et documentaires. C'est sur Vimeo, et on le doit à Mike Des Roches, de Sony.

XDCAM Lesser known benefits - Acquisition to Archive from Sony Professional USA on Vimeo.

lundi 16 septembre 2013

Filmer des documentaires en S-35 : une nouvelle tendance ?

Avec la toute nouvelle AMIRA, chez ARRI, c'est peut-être un tournant que nous voyons se dessiner dans la production cinématographique. Alors que le Super-16 est bel et bien enterré, c'est vers le D-Cinéma que les regards se tournent maintenant, et il semble bien que les constructeurs, désormais à l'écoute de leurs clients potentiels, se posent la question de l'ergonomie des caméras à grand capteur.
Et, dès lors, quoi de mieux que la vieille recette ENG de la caméra portée sur l'épaule, le viseur à hauteur de l’œil du cadreur ?  C'est un peu ce que l'on voit désormais avec cette caméra, chez ARRI, et last but not least, voici Sony qui annonce des adaptateurs B4 2/3'' pour ses caméras F5 et F55 (à vrai dire on se demande pourquoi ils n'ont pas prévu ça aussi pour la F3).
Voici un bref FAQ, que l'on doit à Peter Crithary, qui fait le point sur ces nouveautés :


First adapter : LA-FZB1

Second adapter, LA - FZB2

Enables the use of existing HD lenses for 4K production with PMW-F55

The LA-FZB2 lens mount adaptor increases the lens options for the PMW-F55 camcorder shooting 4K productions. The small and lightweight lens mount adaptor converts the lens mount format from B4 to FZ.

It enables the use existing HD lens including HD BOX lens for Sports shooting, while maintaining good operational weight balance.

Integrates motorised ND and CC filters - With the LA-FZB2, you are able to change ND and CC filters remotely. The system incorporates the same RCP/MSU operation system as current HDC Series cameras.



Q1:How is LA-FZB1 different from LA-FZB2?

1. LA-FZB2 has servo-controlled optical filter disk unit (FDU) including ND and CC (Color Correction filters) while the LA-FZB1 does not.

2. LA-FZB2 includes a pair of support rods (φ15x70mm), while the LA-FZB1 does not.

Q2:What is the weight?

FZB1 is approx. 670g (1lb8oz) body only, 760g (1lb11oz) with detachable support rod bracket.
FZB2 is approx. 840g (1lb14oz) body only, 960g (2lb2oz) with detachable support rod bracket and a pair of support rods.

Q3:What is the magnification ratio of LA-FZB1?

About 2.6x

Q4:How many F stop will be dropped?

About 2.6 stops.

Q5:What’s the maximum supported lens weight LA-FZB1?

Approx. 3 kg without support rods
Approx. 10kg with support rods

※  Recommended for using the supplied support rods for stable operation. When using a BOX lens, please use the lens support provided from the lens manufacturer.

Q6:What are the adapters made of?

Magnesium die-casting.



Q7:Does LA-FZB1 work with any B4 lenses in the market?

Yes, it works with any B4 lenses in the market.

Chromatic aberration compensation is available with the lenses supporting chromatic aberration compensation data communication. (F55/F5 firm ware Ver2.0 or later)

Check your lens regarding compatibility of a chromatic aberration compensation data.


Q8:When they will be available in the market?

Estimated in October, 2013.

Q9:What’s the difference between Sony’s adapters and others?

1 - Sony’s adapters are FZ mount while others are PL mount.

2 - The advantage of Sony’s adapters is they make good use of bright lenses than the other adapters on the market, in addition our adapters minimize the light falloff at the edges. (Because max. Input F Number of Sony’s is 1.4 while other products average F number is 1.7 to 1.8)

3 - Sony’s adapters have 12-pin lens interface.

Q10:What functions are available with 12-pin lens interface?

Available with PMW-F55/F5 Ver. 2.0 (ex Ver1.3)

  • Rec start/stop control from zoom lens
  • Control from RM-B remote (Iris/Zoom/Focus)
  • Lens Information display
  • Control from CBK-DCB01 (Zoom)
  • Chromatic aberration compensation

Available with PMW-F55/F5 Ver. 3.0 (December/2013)
  • Auto iris
  • RET (Rec review) button from lens

 Q11:Is it made by Sony?

Yes, it is

Q12:Isn’t there any optical performance drop?

No, there isn’t.

Q13:Does the angle of view change?

Almost the same angle of view as that using with a 2/3 camera.

Q14:Does the focal length change?

It will be magnified about 2.6x.