dimanche 27 avril 2014

4K et Ultra-HD pour tous ?

Dans la flopée de nouveaux appareils tous capables de filmer en 4K DCI et/ou Ultra-HD qui arrivent sur le marché, avec des prix annoncés particulièrement attractifs - voir les annonces faites au NAB - une question me taraude tout de même : et le RAW dans tout ça ? 
En effet, l'information issue du capteur reste, finalement, le meilleur garant de la qualité finale.
Un bref récapitulatif des usages du RAW (merci à Jean-Charles Fouché) :
Le but  du RAW c'est de :
- Travailler avec une quantité maximale de nuances : 12, 14 ou 16 bits, au lieu des 8 bits généralement couverts par la production "low cost".
- Récupérer le signal du capteur d'image le plus directement possible sans aucun pré-traitement (exploitation plus rapide qu'en HD positif car seule l'ouverture du diaphragme est à considérer, comme en 35mm film d'ailleurs).
- Utiliser la puissance de traitement en post-production pour modifier, étalonner l'image à sa convenance : le laboratoire n'est plus dans la caméra (tournage rapide, vulgaire, en vidéo mobile, avec des réglages effectués dans les menus internes de la caméra, sans moyen réel de vérifier le travail), mais dans l'ordinateur en post-production (avec une augmentation notable du temps passé en post-production, et donc du budget).

Le problème, c'est que le format RAW n'est pas standardisé : il y a pratiquement autant de RAW que de caméras ! Chaque constructeur implémente son propre format, incompatible avec les autres. C'est ainsi que chez ARRI on a des fichiers .ari (pour Arriraw), ou R3D chez Red.
C'est pour cela que l'éditeur de logiciels Adobe a crée son propre format RAW, interopérable et appelé Digital Negative ou DNG (sur la base du format TIFF). Pour le cinéma, Adobe a proposé un format CinemaDNG sous la forme d'une suite de fichiers DNG indexés ou encore encapsulés dans un container MXF.

Ci-dessus un exemple de workflow avec le nouveau Sony NEX A7s

Bref, on aurait bien voulu retrouver, chez les "low cost", quelque chose qui ressemble à du RAW. Chez Sony en particulier, (qui présentait un full frame le A7s) ou chez Panasonic qui a fait le "buzz" avec le GH4. Mais non, et Blackmagic Design reste encore la seule firme capable de mettre sur le marché des caméras qui enregistrent directement en CinemaDNG, un format qui, bien que compressé, représente tout de même une alternative élégante au ProRes et DNxHD, surtout lorsqu'on envisage une post-production lourde.
La firme Atomos a annoncé d'autre part la disponibilité prochaine d'un enregistreur, le Shogun, capable, quant à lui, d'enregistrer en 4K et CinemaDNG. Mais ce n'est pas ce qui est fourni sur les sorties HDMI ou 3G HD-SDI des appareils Sony et Panasonic (YCbCr 4:2:2 rappelons-le... sur 8 bits pour l'A7s et 10 bits pour le GH4). Bien évidemment on aurait préféré des infos en provenance directe du capteur (comme Magic Lantern l'a fait avec certains DSLR Canon), quitte à utiliser des LUTs pour la visualisation en tournage.
En fin de compte, c'est peut-être de Chine que vient la véritable nouveauté, avec la firme KINEFINITY, dont la caméra KineMINI 4K est proposée en pré-commande à 3199$ sur le site de la firme, mais comme il faut ajouter les options 4K RAW et HiSpeed, proposées séparément à 669$ chacune, le prix de revient est sensiblement plus élevé qu'une Blackmagic 4K. Reste à voir ces caméras sur le terrain.

lundi 14 avril 2014

'Her' (Spike Jonze) et l'ubiquité

'Her' de Spike Jonze, propose une vision assez intéressante de ce qui arriverait (pourrait arriver ?) si un système d'exploitation informatique disparaissait, en "laissant tomber" en quelque sorte l'ensemble de ses utilisateurs. Bien sûr, ce n'est pas là un thème central du film, mais à un certain tournant de l'intrigue c'est bien à cette situation que le personnage principal (incarné par Joaquin Phoenix) se trouve confronté.
On peut aller plus loin en se demandant ce qui arriverait si tous les systèmes d'exploitation des ordinateurs disparaissaient d'un seul coup. Alors que Spike Jonze n'évoque cette hypothèse que dans le cadre d'une évolution menant au suicide une certaine forme de vie artificielle - ou plutôt d'intelligence artificielle - représentée sous la forme d'un système d'exploitation aux capacités d'apprentissage apparemment illimitées, le shut down généralisé pourrait quand à lui survenir à la suite d'une contamination quelconque des systèmes, à laquelle il serait impossible de remédier.
La perspective d'une catastrophe de cette ampleur, qui signifie tout simplement qu'un beau matin, on allume son ordinateur ou son téléphone "intelligent" et qu'on se retrouve devant un écran vide et silencieux, reste évidemment une vue de l'esprit, mais peut-on pour autant la négliger même si on n'est pas un amateur de science fiction ?
Le film nous amène à aborder aussi une autre problématique, celle qui concerne la tendance à essayer de donner à tout prix des caractères anthropomorphiques aux créations mécaniques issues de l'esprit humain. Ainsi pourrait-on comprendre le fait même d'inventer une relation humain-machine venant suppléer, en quelque sorte, à la vacuité de celles existant entre humains. 
Mais l'aspect le plus fascinant du film reste qu'il nous oblige peut-être à repenser la notion d'information, puisque c'est un flux interminable d'informations qui s'écoule de la machine vers l'homme et de l'homme vers la machine, l'un comme l'autre se régénérant et évoluant à travers cet échange. Ce qui ne va pas toujours sans heurts ni "catastrophes", comme le montre l'épisode, hautement symbolique, de la tentative effectuée par Samantha pour "se donner un corps".
L'information telle qu'on peut la comprendre, et en suivant en cela Gilbert Simondon, "n'est pas une chose, mais l'opération d'une chose arrivant dans un système et y produisant une transformation. L'information ne peut se définir en dehors de cet acte d'incidence transformatrice et de l'opération de réception.(...) La réalité locale, le récepteur, est modifiée en son devenir par la réalité incidente, et c'est cette modification de la réalité locale par la réalité incidente qui est la fonction d'information." (Communication et Information, Ed. de la Transparence, 2010, p.159)
Pour qu'un cerveau humain soit capable d'interpréter un document, il doit comprendre dans quelle langue il a été écrit. Il faut donc qu'il ait été instruit au préalable. C'est ainsi que, alors que la théorie de Shannon se focalise sur l'émetteur, l'information au sens de Simondon se focalise elle sur le récepteur, qui est jusqu'ici le cerveau humain. Il importe donc que le récepteur soit instruit pour comprendre les messages de l'émetteur, car sinon ce dernier émettrait dans le vide.
Mais d'où vient alors le message original, celui ayant permis l'instruction préalable du récepteur ? Dans le film de Spike Jonze, la difficulté est résolue par la notion de système évolutif qui, dans un automate programmable tel que 'Samantha', permet à celui-ci d'évoluer par auto-apprentissage jusqu'à atteindre, peut-être, les rivages de connaissances ultimes : la "résurrection" du philosophe Alan Watts est, à cet égard, significative car elle survient à un moment qui annonce le tournant final du film.
Cette capacité d'un système informatique à apprendre et à évoluer est évidemment l'un des principaux objets de recherche de l'Intelligence Artificielle et un des thèmes de prédilection de la Science Fiction (on se souvient de la trilogie Singularité, de Robert J. Sawyer). On sait pourtant que les systèmes actuels sont encore loin de pouvoir mettre en œuvre ce programme, qui est celui d'un réseau évolutif, ubiquitaire et capable d'auto-apprentissage. Un système doté de capacités qui lui confèrent des qualités proches de ce que nous pourrions appeler une conscience.

lundi 7 avril 2014

Au commencement était la vidéo (3ème partie)

Et la vidéo devint numérique...
Ce qui apparait, au départ, comme une manière de réduire la quantité d'informations transmises le long d'un vecteur de communication - à savoir l'échantillonnage puis la quantification du flux d'un signal analogique et sa transformation en un ensemble discret (c'est à dire discontinu) d'informations - préfigure en fait une transformation complète des conditions de la production et de la distribution des programmes en vidéo et audio. Cette transformation n'est donc pas seulement technologique. Elle aboutit en fait à établir un nouveau paradigme dans la création et la diffusion des images animées. 
Dans le monde des années 1970-1980, deux entités semblaient exister séparément, à la fois sur un plan philosophique et dans le domaine de la fabrication. Il y avait d'un côté le cinéma, le lieu même d'une esthétique exigeante - de l'image, des thèmes abordés, de la réflexion - à même de se mouvoir dans des sphères conceptuelles telles que les philosophes eux-mêmes iront y puiser leurs modèles, et de l'autre la vidéo, enfant mal né, pourrait-on dire, de la télévision, situé quelque part entre le travail de récupération d'éléments appartenant à la société technologique et un bricolage conceptuel allant puiser ses sources parmi les avant-gardes du début du siècle - Futurisme, Dada, théâtre de l'absurde... D'un côté une réflexion prenant ses sources dans l'esthétique et la linguistique, adaptant à tour de bras des classiques de la littérature, abordant des thèmes jugés universels, déplaçant des foules et disposant de moyens considérables. De l'autre des artistes, relativement marginaux au regard du marché de l'art de l'époque, et travaillant pour la plupart dans des institutions culturelles au financement limité.
Certains évènements cependant, liés à la transformation technologique qui prend place au début des années 1970, vont progressivement changer la donne. Il y aura tout d'abord l'invention du microprocesseur - Intel lance le premier microprocesseur 4 bits, le 4004, en 1971, puis un microprocesseur 8 bits, le 8008 l'année suivante. Motorola suivra, peu de temps après, et équipera plusieurs micro-ordinateurs de l'époque - dont l'Apple II - avec un processeur 8 bits, le MC-6502. Pour la télévision aussi, c'est le début d'une autre époque : elle est marquée par la recherche d'une image et de programmes plus "racoleurs", en tous cas susceptibles de coller à ce que les programmateurs estiment être l'esprit de leur temps. Les générateurs d'effets numériques apparaissent sur le marché (l'ADO d'Ampex, l'Abekas A-51...), les effets d'incrustation se multiplient dans les émissions, et la force de frappe de la télévision récupère progressivement les inventions des artistes-bricoleurs des décennies précédentes.Couplés à un mélangeur vidéo, ces effets numériques façonnent l'identité visuelle de bon nombre d'émissions de l'époque, tandis que certains réalisateurs ou créateurs d'effets spéciaux (on ne disait pas encore 'designer') s'en donnent à cœur joie dans les génériques et les shows télévisés. En France, Jean-Christophe Averty imprime son style à l'ORTF, tandis que Jean-Paul Fargier, Michel Jaffrenou, Patrick Bousquet ou encore Thierry Kuntzel travaillent dans le cadre plus expérimental de l'art vidéo.
C'est à peu près à la même époque qu'apparait sur le marché la Paintbox de Quantel. Véritable station de travail, dotée de capacités graphiques très avancées, cette machine va révolutionner le travail en post-production, en permettant d'effectuer des retouches d'image très perfectionnées et en créant un style visuel unique pour chaque programme, ce qu'on appellera par la suite un 'habillage'. La Paintbox a constitué une révolution pour l'industrie des médias - et pour bon nombre d'artistes indépendants - en raison de certaines de ses propriétés, uniques pour l'époque. Elle permettait, en particulier, d'insérer des graphiques et des titres en temps réel, sur l'écran, pendant une émission. L'infographiste se servait pour cela d'un dispositif interactif d'un type nouveau : un stylet et une tablette. Elle permettait aussi d'effectuer rapidement des retouches d'image et de les insérer tout de suite après dans le flux de production.
[Il faut rappeler ici le travail pionnier de Alvy Ray Smith et Ed Emshwiller  au Computer Graphics Lab de NYIT, dans les années 1970. A. R. Smith mettra au point plusieurs programmes de création infographique interactifs, développés sur des 'frame buffers', ou 'mémoires d'image' et aidera Ed Emshwiller à réaliser un film, Sunstone, en 1979]
D'autres machines lui emboiteront le pas, avec des caractéristiques le plus souvent en retrait en termes de performance. On peut citer ainsi le Video Toaster de NewTek, conçu pour s'intégrer à l'Amiga de Commodore, ou encore les cartes Targa de la firme américaine Truevision. Cependant, et de manière très progressive, les ordinateurs personnels et les stations de travail gagnaient en puissance, et avec le développement d'algorithmes de compression pour la vidéo (MPEG-1 et surtout MPEG-2), c'est une toute nouvelle époque qui a démarré vers le milieu des années 1990. Cette fois il devient possible d'intégrer de la vidéo dans des systèmes informatiques, de la distribuer (câble ou satellite) et de la traiter en post-production à travers des interfaces logicielles perfectionnées (le montage non-linéaire). Cette fois encore le changement est brutal. Le passage d'une logique de montage dans laquelle l'accès aux données est séquentiel, à un système dans lequel l'accès aux médias peut se faire de manière aléatoire, change alors les habitudes de travail de bien des professionnels du montage - ce qui ne va pas sans heurts dans les équipes... Certaines chaines de télévision ont ainsi du retarder de plusieurs années leur équipement en stations de montage non-linéaire pour permettre à leurs monteurs de s'adapter... ou de partir à la retraite.

La logique des nouveaux médias
Il faut dès lors envisager les changements survenus dans la sphère des médias audiovisuels comme le passage progressif d'une logique de flux à une logique d'éléments distribués et accessibles à tout moment - ce passage n'est toujours pas achevé, mais c'est bien de cela qu'il s'agit désormais. La fin du 'broadcast' à moyen terme. Cependant, pour l'univers des créateurs œuvrant dans  le domaine des médias audiovisuels, c'est une autre partition qui se joue désormais depuis quinze ans au moins. Elle intègre de manière définitive audiovisuel et informatique, car l'ordinateur présente une caractéristique unique - que la vidéo ou le cinéma traditionnel ne possèdent pas. Il permet à l'utilisateur d'interagir avec lui, c'est à dire de l'amener à exécuter des opérations qui n'étaient pas prévues à l'origine, pour peu qu'on sache le programmer (autrement dit lui fournir des instructions dans un format qu'il 'comprend'). C'est cette caractéristique unique, l'alliance de l'art et de l'algorithmique, qui est résumée par le titre du livre manifeste de Casey Reas et Chandler McWilliams, Form + Code (2010).
En réalité, on assiste bien depuis une quinzaine d'années maintenant, à "un processus général de reconceptualisation culturelle" (L. Manovich, Le Langage des Nouveaux Médias, p. 128). Car, nous dit encore Manovich, "la qualité la plus fondamentale et sans précédents historiques des nouveaux médias [c'est] le fait qu'ils soient programmables. Les comparer avec l'imprimerie, la photographie ou la télévision ne nous éclairera jamais que partiellement sur leur nature." Il faut donc définir un autre cadre conceptuel, pour poursuivre une étude actualisée de l'audiovisuel à l'ère du numérique. Et, cette fois, comme il semble bien que plus rien ne s'y oppose, ce cadre devrait aussi inclure le cinéma, dont les modes de production et de consommation changent de manière radicale. Difficile en effet de prétendre maintenir une spécificité de l'expérience de cinéma, alors qu'on regarde de moins en moins de films en salle, et de plus en plus sur des systèmes de 'home cinéma' - quand ce n'est pas carrément sur une tablette. Et quid aussi de la question des séries TV, auxquelles artpress 2 vient de consacrer un numéro (ce qui montre bien l'importance du déplacement qui a eu lieu, puisque ces productions sont devenues désormais des objets à part entière de l'analyse esthétique). 
Bien que le cinéma soit généralement assimilé à un art de la narration, le moment est peut-être venu de reprendre les recherches entamées par les formalistes des années 1920, puis par les cinéastes qui ont travaillé sur des films dits 'structurels' (structural film) dans les années 1970, et de tenter d'intégrer dans le langage cinématographique les données de la perception et celles fournies par le système de production d'images en mouvement.

dimanche 6 avril 2014

Au commencement était la vidéo (2ème partie)

Une esthétique des machines électroniques
Le développement et la diffusion, à partir des années 1960, de systèmes de capture d'images électroniques de plus en plus perfectionnés a eu pour effet de transformer le champ d'intervention des artistes et des cinéastes "indépendants" eux-mêmes. Ces derniers se trouvaient dans la situation où, et particulièrement à partir de la décennie suivante, il devenait de plus en plus difficile d'ignorer des techniques qui permettaient un travail approfondi sur la matière même des images sans avoir à effectuer d'incessants allers et retours entre laboratoire et table de montage. Il leur faudra cependant attendre le milieu des années 1980 pour disposer de systèmes de captation compacts capables de concurrencer l'agilité et la simplicité des caméras 16mm.
Mais au delà de l'aspect matériel, ce sont d'autres caractéristiques, propres à la vidéo, qui ont commencé à orienter les pratiques expérimentales du cinéma vers les images électroniques. Elles sont en fait au nombre de deux. L'une a trait, bien évidemment, au caractère instantané de la vidéo et d'une certaine manière déjà, WYSIWYG : l'image que l'on filme est celle qu'on voit, pour peu que l'on dispose d'un écran de contrôle. L'autre, la plus spectaculaire, est celle qui va engendrer un ensemble de pratiques expérimentales et artistiques autour de la mise en œuvre d'un dispositif de composition d'images original, l'incrustation. On n'oubliera de mentionner également les possibilités de montage qui devront cependant attendre le début des années 1980 pour être intégrées dans des systèmes professionnels performants. A l'époque, il n'est pas question de voir ces technologies atteindre la sphère du semi-professionnel ou de l'amateur, même fortuné, et les artistes doivent encore passer par des institutions de la sphère culturelle ou constituer des collectifs capables de diriger les subventions vers eux.
Il est désormais bien établi que les décennies 60 et 70 ont été une période importante pour l'exploration par les artistes de technologies héritées de l'industrie (les caméras de surveillance, par exemple) et leur détournement à des fins créatives ou pour la création ex-nihilo à partir de dispositifs que rien ne prédisposait à un tel usage (le portapak de Sony). Ces reconfigurations ou 're-médiations' de systèmes traditionnels de diffusion et de contrôle, représentaient en quelque sorte une tentative de prise de parole - plutôt que de prise du pouvoir - par certains des éléments les plus avancés de la société civile. Ce faisant, ces artistes - ou techno-artistes - devaient utiliser les instruments mêmes que les gouvernements (les 'pouvoirs') avaient mis en place comme aboutissement de leur logique de contrôle social. Ces années là ont connu des développements importants pour tout ce qui concerne la manipulation d'images vidéo ou infographiques et leur utilisation à des fins artistiques.
On pourra toujours discuter autour de la question de savoir si les artistes et les créatifs de tous poils ont été intéressés par l'image électronique (analogique ou numérique) en raison de la technologie elle-même - des signaux électriques produisant une image par balayage entrelacé pour la vidéo, ou par la génération de matrices de pixels et l'utilisation de transformées mathématiques pour les images générées par ordinateur. Le choix des artistes semblait alors dicté par deux manières différentes de représenter la réalité, selon qu'elle était enregistrée directement (vidéo) ou calculée (infographie).
On situe souvent les débuts de l'art vidéo à l'utilisation par Nam June Paik du portapak Sony pour filmer la procession du pape Paul VI dans New York, en 1965. A peu près à la même époque, Andy Warhol aux Etats Unis effectua des projections d'art vidéo et Fred Forest en France utilisa le portapak. Les artistes participaient désormais au développement des nouveaux outils de production, qui étaient à l'époque des synthétiseurs audio et vidéo, des VCOs (Voltage Controlled Oscillator) ou différentes sortes de générateurs de fonctions.
Dans un autre domaine, Michael A. Noll, chercheur aux Bell Laboratories, dans le New Jersey, Bela Julesz, Vera Molnar ou encore Charles Csuri, créaient des images de synthèse dont l'influence allait, un peu plus tard, s'avérer déterminante dans l'évolution du cinéma hollywoodien.
Michael Noll, cité par Gene Youngblood dans son livre Expanded Cinema (1970), s'exprimait alors de la façon suivante:
L'ordinateur est, à n'en pas douter, un dispositif électronique capable de réaliser les seules opérations qui lui ont été assignées par un ensemble d'instructions. C'est pour cela qu'en général il est décrit comme une machine extrêmement puissante mais incapable de la moindre créativité. Toutefois, si on définit le terme 'créativité' dans son sens restreint comme le moyen de produire des évènements non-conventionnels ou imprévisibles, alors l'ordinateur devrait, au contraire, être décrit comme un média créatif - un collaborateur créatif et actif de l'artiste [...] en raison de sa vitesse, de sa précision, de ses possibilités étendues de manipulation et de modification des programmes et des données, il est manifestement à même d'agir de manière imprévisible et de produire des résultats inattendus. Pris dans ce sens, on peut dire que l'ordinateur participe à la recherche créative de l'artiste. Il lui suggère des éléments de synthèse qu'il est libre d'appliquer ou de refuser. Il possède au moins quelques uns des attributs extérieurs de la créativité. (Youngblood, 1970, p.192)

L'artiste comme ingénieur : retour aux sources dans le nouveau monde des inventeurs
Les composants de l'ENIAC, premier "superordinateur" développé en 1940
Cette utilisation de l'ordinateur et d'équipements de contrôle associés allait atteindre un niveau de perfectionnement spectaculaire et connaitre une utilisation imprévue, là aussi, à la suite des travaux de John Whitney, dont l'origine peut être trouvée dans des applications industrielles et militaires. Ce fut d'ailleurs le cas de la cybernétique de Norbert Wiener, qui avait travaillé pendant la guerre sur les mécanismes de contrôle des batteries anti-aériennes. John Whitney lui-même avait commandé une batterie de canons anti-aériens avec contrôleur M-5, et il s'était inspiré de leur conception mécanique pour mettre au point son premier ordinateur analogique à la fin des années 1950. Whitney utilisera plus tard le contrôleur M-7, plus sophistiqué, pour réaliser une imposante machine de près de 4 mètres de hauteur, qu'il utilisera pour ses expériences en infographie et motion control, dont Whitney fut certainement l'un des inventeurs. Des films tels que Permutations (1967) et Arabesque (1975) l'ont fait reconnaitre comme un des pionniers de la cinématographie sur ordinateur, mais c'est son travail sur la séquence d'ouverture de Sueurs Froides (Vertigo) de Hitchcock, qui établira ce type d'effets spéciaux dans le cinéma commercial hollywoodien. Il fut l'un des premiers à utiliser la technique du slit scan, qui sera reprise plus tard par Douglas Trumbull dans une des dernières séquences de 2001, L'Odyssée de l'Espace.
Il est certain que le développement des effets spéciaux au cinéma, à commencer par le cinéma expérimental, et les technologies de création d'images sur ordinateur sont étroitement liés. Le cas de l'art vidéo était un peu différent, car si le système fonctionnait en fait comme une démonstration in vivo de la théorie de la communication de Shanon, avec la création de feedbacks (rétroaction) positifs comme identifiant, ce champ avait été dès l'origine investi par des artistes, qui en exploraient les possibilités, parfois au sein de collectifs qui se situaient résolument aux marges du rationalisme technologique de la société industrielle. Fluxus, le plus connu de ces groupes, était constitué comme une communauté internationale de musiciens, d'artistes, de cinéastes et d'écrivains emmenés par Georges Maciunas, et comprenant des gens comme Nam June Paik, Wolf Vostell, Yoko Ono et Joseph Beuys, et se reconnaissant dans les théories et les actions de Dada, des Surréalistes et des Situationnistes. A la suite de Marcel Duchamp et de John Cage, Fluxus travaillait sur la notion de 'hasard objectif', sur le jeu et l'unité de l'art et de la vie (intégrant la fameuse 'critique de la séparation' des situationnistes). La technologie et son détournement dans le jeu et l'exploration expérimentale ont été la marque de ce groupe, apparu alors que le paradigme dominant de la société technologique se déplaçait de l'électricité vers l'électronique. Dans une époque marquée par la résurgence des utopies sociales, les expériences de Nam June Paik, de Woody et Steina Vasulka et de bien d'autres artistes se situaient résolument à la marge de la société technologique, mais ils cherchaient aussi à en exploiter toutes les possibilités et à redéfinir l'utilisation des nouveaux dispositifs en dehors du système d'organisation et de contrôle social dominant. Nam June Paik cherchait aussi à permettre la diffusion de la vidéo parmi le plus grand nombre, en créant des appareils peu coûteux et faciles à transporter, et le synthétiseur vidéo qu'il construisit avec l'ingénieur Shuya Abe en 1970 devait en être en quelque sorte une préfiguration. Ainsi qu'il l'écrivait lui-même:
Regardons vers le milieu du 19ème siècle [...] la plupart des gens n'avaient pas les moyens d'accéder à une quelconque expression en art. Seuls des privilégiés pouvaient se payer les tubes de peinture à huile, les toiles et le savoir qui va avec. Mais l'invention de la photographie a changé tout cela, en permettant à tout un chacun de devenir un artiste en activité. La taille de l'industrie de la photographie et le business de l'art sont là pour prouver ce désir généralisé de faire de l'art, au lieu de se contenter de regarder des chefs d’œuvre dans un musée. Ce processus se répétera-t-il dans le monde de la télévision ? Les programmes des networks deviendront-ils des peintures sur les murs des musées et nous, artistes créateurs de machines et d’œuvres en vidéo ? Deviendrons-nous aussi gros que Kodak, Nikon et Zeiss-Ikon réunis ?
Ce qui est sûr, c'est qu'à partir des années 1970 Paik et Whitney n'étaient plus seuls sur le terrain, et des ingénieurs et techniciens de différents pays se penchaient sur la question de la création vidéo en dehors des lourdeurs de la machinerie télévisuelle des networks ou de la télévision d’État. C'est ainsi que j'ai cité, dans la première partie de cet article, le Spectre (ou Spectron, c'est pareil), développé par Richard Monkhouse et dont une quinzaine d'exemplaires furent construits (photo de gauche). Il y eut aussi le Videokalos, conçu par Peter Donebauer, et qui était plutôt une machine à coloriser analogique aux effets carrément psychédéliques. Il en existe peut-être encore un ou deux exemplaires en France, chez des collectionneurs... Toutes ces machines montrent que l'industrie des effets spéciaux en vidéo n'a pas commencé dans les laboratoires des grandes firmes.
(A suivre)


vendredi 4 avril 2014

Au commencement était la vidéo...

Difficile de ne pas signaler cette somme, intitulée The Emergence of Video Processing Tools, qui comprend deux forts volumes publiés par The University of Chicago Press, et qui retrace le parcours des artistes et des inventeurs les plus marquants de cette période qui a vu apparaitre, se développer puis disparaitre, avalé pourrait-on dire par la publicité et les effets spéciaux au cinéma, ce système de création électronique original qu'on a appelé "l'Art Vidéo". Pour mieux comprendre le projet et l'influence réelle exercés par ceux qui ont porté ce mouvement, peut-être est-il utile d'effectuer un bref retour en arrière et de regarder les conditions qui ont permis l'émergence de cette forme d'art, fondée pour la première fois sur des outils technologiques issus de l'électronique et des systèmes de communication.
On sait que, depuis le début des années 1950, les médias traditionnels - c'est à dire principalement la photographie, la radio, le film et la télévision - avaient vu leur 'spectre' considérablement élargi avec l'apparition de nouvelles technologies telles que la télévision en couleurs, la diffusion par satellite et surtout l'enregistrement de la vidéo sur bande ou sur cassette, puis l'apparition de matériel portable - l'omniprésent U-Matic et ses héritiers. La création assistée par ordinateur - qui va générer toute la sphère de "l'art numérique" - apparait d'abord comme un segment hyper spécialisé, réservé à des codeurs, bien que, dès le milieu des années 1980, un nombre important d'étudiants issus des écoles d'arts plastiques se frottaient déjà à la programmation avec l'Amiga, de Commodore.
Jusqu'à la fin du 20ème siècle, le terme 'nouveaux médias' recouvrait pour l'essentiel la création effectuée avec les moyens traditionnels du film, de la vidéo et de l'audio. A partir de la fin des années 1990, l'expression 'nouveaux médias' a servi à décrire la transition progressive de l'analogique au numérique, et pouvait être appliquée désormais à des projets qui impliquaient de manière quasi-exclusive l'utilisation des propriétés interactives des ordinateurs, pour peu qu'on sache les programmer. L'expansion rapide de ces technologies - ainsi que celle des dispositifs et des plateformes, qu'il s'agisse d'ordinateurs, de téléphones mobiles et autres machines connectées au Web - ont pu faire oublier le travail effectué par les pionniers, c'est à dire les artistes qui ont utilisé les ordinateurs de manière créative dès les années 1960. (Pour une vision synthétique du passage de l'analogique au numérique et ses conséquences épistémologiques, on peut lire Le Langage des Nouveaux Médias, par Lev Manovich).
Il est possible, par conséquent, d'utiliser le vocable 'art des nouveaux médias' pour caractériser les approches créatives utilisant les technologies numériques et peut-être surtout les ordinateurs ou des dispositifs apparentés (Il existe aujourd'hui de plus en plus de circuits à base de capteurs, contrôlés par des cartes programmables, telles que l'Arduino ou le Raspberry PI, ou encore la Kinect de Microsoft, et utilisés par les artistes-codeurs de l'ère numérique). Cet 'art des nouveaux médias' utilise principalement les possibilités d'interactivité, de temps réel, de design génératif et les caractéristiques de non-linéarité et de modularité de ces dispositifs. L'utilisation de ces dispositifs permet à cet art numérique de se développer autour de projets tels que des installations interactives en réseau, de la réalité virtuelle ou du "Net Art" (c'est à dire des œuvres se déployant sur le réseau Internet).
Dans ce contexte, on a pu assister à un déplacement de perspective concernant la question plus générale de l'utilisation des 'outils', matériels ou logiciels. Au cours des années 1960 et 1970, ce terme connotait surtout des machines telles que les portapaks Sony (les premiers magnétoscopes portables) et les synthétiseurs vidéo analogiques. A partir des années 1980, on a pu l'appliquer aussi à des logiciels de création assistée par ordinateur. Un phénomène plus récent consiste à considérer les logiciels eux-mêmes comme des oeuvres d'art. On parle alors d'artware et il pourra s'agir de navigateurs Internet alternatifs ou de moteurs de recherche développés par l'artiste et représentatifs d'une certaine forme d'installation (Bien que le dernier et récent ouvrage de Lev Manovich, Software Takes Command, ne traite pas explicitement de ces questions, il peut être une source de réflexion stimulante pour tout ce qui concerne le glissement vers des formes de création artistique entièrement dépendantes du développement logiciel).
On peut aussi remarquer que le déploiement d'une forme d'art, qui se caractérisait surtout par le détournement comme argument explicatif et la représentation d'images en basse résolution, vers un système utilisant l'interactivité et le calcul comme paradigmes fondateurs, a eu pour effet de scinder les communautés d'artistes en groupes constitués d'une part par ceux qui, d'une manière ou d'une autre, ont adopté le langage et les codes (dans les deux sens du terme) des spécialistes de l'informatique et ceux qui ont continué à produire de l'art d'une manière plus traditionnelle, c'est à dire des œuvres pérennes et facilement identifiables avec un artiste - que ce soit par le style, les matériaux utilisés ou la technique. C'est sans doute aussi pour cela que l'art vidéo est devenu historique, son objet étant sans doute réalisé en tant que défricheur et découvreur de formes. Et ce n'est pas l'exposition actuelle au Grand Palais, consacrée à Bill Viola, qui pourra démontrer le contraire - si ce n'est que cet artiste lui-même est progressivement passé d'une esthétique "low res" à des productions résolument "high res", témoignant sans doute lui aussi du goût actuel pour une esthétique du clip et de la publicité (ce qui me rappelle les diatribes de Serge Daney contre ce "cinéma du look" exemplifié par le trio Annaud-Beneix-Besson. Qu'aurait-il pensé alors d'Amélie Poulain de J.P. Jeunet et de L’Écume des Jours selon Michel Gondry ?).
Dans une deuxième partie, je passerai en revue quelques uns des artistes les plus marquants de cette période qui a vu naitre, se développer puis disparaitre l'art vidéo et les technologies qu'il utilisait... Pour le moment, je ne résiste pas au plaisir d'inclure une vidéo d'une pièce de Geneviève Calame, artiste suisse disparue en 1993, qui utilise ici le SPECTRE, synthétiseur analogique dont on peut encore trouver quelques exemplaires chez des collectionneurs (et dont l'auteur de ces lignes était d'ailleurs un spécialiste reconnu sur la place de Paris, au tournant des années 1980).


jeudi 3 avril 2014

Un super ordinateur sur le bureau ? NVIDIA et AMD lancent de nouveaux GPUs et cassent la baraque

Depuis l'année dernière, des mises à jour importantes et l'apparition de nouveaux concepts chez Adobe (avec la suite Adobe CC) et chez RED (RED CINE-X), la montée en puissance de Resolve (anciennement DaVinci), et l'omniprésence du "hype" autour du 4K et du cinéma numérique, ont montré la nécessité de voir apparaitre des GPUs capables de traiter des quantités de données qui, pour satisfaire les usines de post-production, doivent être de plus en plus en quasi temps réel. L'accélération GPU, couplée avec le support de formats RAW natifs, s'avère être un facteur décisif pour l'évolution et le développement de la production vidéo. La semaine dernière donc, NVIDIA et AMD ont annoncé, chacun de leur côté, de nouvelles cartes graphiques haut de gamme, situées dans une fourchette avoisinant probablement les $3000, La GeForce GTX Titan Z bi-processeur pour NVIDIA et la FirePro W9100 pour AMD.

NVIDIA GeForce GTX Titan Z

Avec 2880 Cuda cores et 6Go de VRAM par GPU (pour un total de 5760 cores et 12 Go de VRAM pour les deux GPUs ensemble, et 8 teraflops en FP32), la Titan Z est , si l'on en croit le site AnandTech, "un passage obligé pour NVIDIA pour entrer le marché des cartes Dual-GPU, mettant ainsi le GPU le plus avancé de NVIDIA, le GK110, dans un produit de type station de travail à double GPU". A l'heure actuelle, cependant, la fréquence d'horloge et la consommation électrique de la carte restent inconnues, mais AnandTech ajoute:
"L'horloge du GPU devrait tourner autour de 700 MHz, presque 200 MHz de moins que la vitesse d'horloge de base de la GTX Titan Black (sans parler des horloges boostées). La direction "consumer" de NVIDIA a publié également les spécifications de la mémoire, précisant que celle-ci opérera, sans le moindre compromis à la même fréquence de 7 GHz que la GTX Titan Black".
Le site Tom's Hardware ajoute quand à lui ceci (en citant la vidéo publiée ici à la suite):
"Huang a comparé la nouvelle Titan Z à Google Brain, qui utilise un millier de serveurs comprenant 2000 CPUs (16000 cores), 600 kWatts et un prix évalué à 5 millions de dollars. Une solution utilisant la Titan Z pourrait se satisfaire de trois serveurs avec une accélération GPU et 12 GPUs NVIDIA au total."

La vidéo ci-dessous se trouve sur le blog NVIDIA.



AMD FirePro W9100


Bien qu'il ne s'agisse pas d'une carte dual-GPU, la FirePro W9100 fait forte impression avec ses 16 Go de VRAM et ses 2816 cores, auxquels il faut ajouter 2 teraFlops en calcul double précision et 5 teraFlops en capacité totale de calcul. C'est la post-production de haut niveau (ainsi qque la firme l'a annoncé dans son communiqué) qui devrait bénéficier tout particulièrement des caractéristiques de cette carte. On pourra lire, là encore sur le site AnandTech, ceci : "AMD table sur ses 16 Go de VRAM pour l'emporter en termes de performance [pour l'encodage vidéo 4K et le traitement d'image] en raison des possibilités de traitement offertes par une telle configuration mémoire." Ce que montre assez bien le diagramme suivant:


La feuille de route

Dans une autre annonce la semaine dernière, NVIDIA a fait connaitre une nouvelle feuille de route pour le développement de ses GPUs. Selon toute vraisemblance, l'architecture GPU qui sera lancée courant 2016, et dénommée Pascal, aura certaines caractéristiques déjà connues. Une de celles qui n'ont pas été annoncées jusque là - et peut-être aussi la plus intéressante - est sa nouvelle interface de communication dénommée NVLink. Selon AnandTech, NVIDIA "cherche à optimiser la charge représentée par les temps de calcul, afin de la répartir à travers un arrangement de plusieurs GPUs."
Et, selon toute vraisemblance, les 16 Go/s (à 8 giga-transferts par seconde ou 8 GT/s) du bus PCIe 3.0 - et même les 16 GT/s du prochain PCIe 4.0 - ne suffiront pas à Pascal pour permettre une communication correcte entre les différents composants de la famille.

Si on considère la capacité de chaque carte de développer des temps d'accès mémoire de plus de 250 Go/sec., on comprend pourquoi NVIDIA a besoin d'un pipeline aux capacités étendues. En termes de bande passante, NVLink disposera de 8 voies permettant le transfert de 20 Gb/sec. par voie, soit un total de 20 Go/sec (selon AnandTech, ceci équivaut à 20 GT/sec.). Selon certaines implémentations envisagées, on aura ainsi un ou plusieurs GPUs qui communiqueront directement avec le CPU à travers NVLink. Selon d'autres, on conservera l'interface du bus PCIe, comme le montre le diagramme ci-dessous:


Pour conclure, on pourra dire que de telles cartes graphiques ne sont évidemment pas destinées à tout un chacun, et probablement pas au cinéaste indépendant, qui n'aura pas besoin d'une telle puissance de feu, surtout au vu du prix par téraFlop. On pourra d'ailleurs remarquer, à titre de comparaison, que les cartes  AMD FirePro D500 qui équipent la version "Hexacoeur" du nouveau Mac Pro, se contentent de 3 Go de VRAM GDDR5 chacun et de 1526 cores ("processeurs de flux"). Mais on peut penser que des stations amenées à traiter les productions de logiciels tels que Flame d'Autodesk, ou Pablo Rio de Quantel, pourraient dans l'avenir avoir besoin de telles architectures.