vendredi 4 avril 2014

Au commencement était la vidéo...

Commençons par signaler cette somme, intitulée The Emergence of Video Processing Tools, qui comprend deux forts volumes publiés par The University of Chicago Press, et qui retrace le parcours des artistes et des inventeurs les plus marquants de cette période qui a vu apparaitre, se développer puis disparaitre, avalé pourrait-on dire par la publicité et les effets spéciaux au cinéma, ce système de création électronique original qu'on a appelé "l'Art Vidéo". Pour mieux comprendre le projet et l'influence réelle exercés par ceux qui ont porté ce mouvement, peut-être est-il utile d'effectuer un bref retour en arrière et de regarder les conditions qui ont permis l'émergence de cette forme d'art, fondée pour la première fois sur des outils technologiques issus de l'électronique et des systèmes de communication.
On sait que, depuis le début des années 1950, les médias traditionnels - c'est à dire principalement la photographie, la radio, le film et la télévision - avaient vu leur 'spectre' considérablement élargi avec l'apparition de nouvelles technologies telles que la télévision en couleurs, la diffusion par satellite et surtout l'enregistrement de la vidéo sur bande ou sur cassette, puis l'apparition de matériel portable - l'omniprésent U-Matic et ses héritiers. La création assistée par ordinateur - qui va générer toute la sphère de "l'art numérique" - apparait d'abord comme un segment hyper spécialisé, réservé à des codeurs, bien que, dès le milieu des années 1980, un nombre important d'étudiants issus des écoles d'arts plastiques se frottaient déjà à la programmation avec l'Amiga, de Commodore.
Jusqu'à la fin du 20ème siècle, le terme 'nouveaux médias' recouvrait pour l'essentiel la création effectuée avec les moyens traditionnels du film, de la vidéo et de l'audio. A partir de la fin des années 1990, l'expression 'nouveaux médias' a servi à décrire la transition progressive de l'analogique au numérique, et pouvait être appliquée désormais à des projets qui impliquaient de manière quasi-exclusive l'utilisation des propriétés interactives des ordinateurs, pour peu qu'on sache les programmer. L'expansion rapide de ces technologies - ainsi que celle des dispositifs et des plateformes, qu'il s'agisse d'ordinateurs, de téléphones mobiles et autres machines connectées au Web - ont pu faire oublier le travail effectué par les pionniers, c'est à dire les artistes qui ont utilisé les ordinateurs de manière créative dès les années 1960. (Pour une vision synthétique du passage de l'analogique au numérique et ses conséquences épistémologiques, on peut lire Le Langage des Nouveaux Médias, par Lev Manovich).
Il est possible, par conséquent, d'utiliser le vocable 'art des nouveaux médias' pour caractériser les approches créatives utilisant les technologies numériques et peut-être surtout les ordinateurs ou des dispositifs apparentés (Il existe aujourd'hui de plus en plus de circuits à base de capteurs, contrôlés par des cartes programmables, telles que l'Arduino ou le Raspberry PI, ou encore la Kinect de Microsoft, et utilisés par les artistes-codeurs de l'ère numérique). Cet 'art des nouveaux médias' utilise principalement les possibilités d'interactivité, de temps réel, de design génératif et les caractéristiques de non-linéarité et de modularité de ces dispositifs. L'utilisation de ces dispositifs permet à cet art numérique de se développer autour de projets tels que des installations interactives en réseau, de la réalité virtuelle ou du "Net Art" (c'est à dire des œuvres se déployant sur le réseau Internet).
Dans ce contexte, on a pu assister à un déplacement de perspective concernant la question plus générale de l'utilisation des 'outils', matériels ou logiciels. Au cours des années 1960 et 1970, ce terme connotait surtout des machines telles que les portapaks Sony (les premiers magnétoscopes portables) et les synthétiseurs vidéo analogiques. A partir des années 1980, on a pu l'appliquer aussi à des logiciels de création assistée par ordinateur. Un phénomène plus récent consiste à considérer les logiciels eux-mêmes comme des oeuvres d'art. On parle alors d'artware et il pourra s'agir de navigateurs Internet alternatifs ou de moteurs de recherche développés par l'artiste et représentatifs d'une certaine forme d'installation (Bien que le dernier et récent ouvrage de Lev Manovich, Software Takes Command, ne traite pas explicitement de ces questions, il peut être une source de réflexion stimulante pour tout ce qui concerne le glissement vers des formes de création artistique entièrement dépendantes du développement logiciel).
On peut aussi remarquer que le déploiement d'une forme d'art, qui se caractérisait surtout par le détournement comme argument explicatif et la représentation d'images en basse résolution, vers un système utilisant l'interactivité et le calcul comme paradigmes fondateurs, a eu pour effet de scinder les communautés d'artistes en groupes constitués d'une part par ceux qui, d'une manière ou d'une autre, ont adopté le langage et les codes (dans les deux sens du terme) des spécialistes de l'informatique et ceux qui ont continué à produire de l'art d'une manière plus traditionnelle, c'est à dire des œuvres pérennes et facilement identifiables avec un artiste - que ce soit par le style, les matériaux utilisés ou la technique. C'est sans doute aussi pour cela que l'art vidéo est devenu historique, son objet étant sans doute réalisé en tant que défricheur et découvreur de formes. Et ce n'est pas l'exposition actuelle au Grand Palais, consacrée à Bill Viola, qui pourra démontrer le contraire - si ce n'est que cet artiste lui-même est progressivement passé d'une esthétique "low res" à des productions résolument "high res", témoignant sans doute lui aussi du goût actuel pour une esthétique du clip et de la publicité (ce qui me rappelle les diatribes de Serge Daney contre ce "cinéma du look" exemplifié par le trio Annaud-Beneix-Besson. Qu'aurait-il pensé alors d'Amélie Poulain de J.P. Jeunet et de L’Écume des Jours selon Michel Gondry ?).
Dans une deuxième partie, je passerai en revue quelques uns des artistes les plus marquants de cette période qui a vu naitre, se développer puis disparaitre l'art vidéo et les technologies qu'il utilisait... Pour le moment, je ne résiste pas au plaisir d'inclure une vidéo d'une pièce de Geneviève Calame, artiste suisse disparue en 1993, qui utilise ici le SPECTRON (ou Spectre), synthétiseur analogique dont on peut encore trouver quelques exemplaires chez des collectionneurs (et dont l'auteur de ces lignes avait une certaine pratique à Paris, au tournant des années 1980).


jeudi 3 avril 2014

Un super ordinateur sur le bureau ? NVIDIA et AMD lancent de nouveaux GPUs et cassent la baraque

Depuis l'année dernière, des mises à jour importantes et l'apparition de nouveaux concepts chez Adobe (avec la suite Adobe CC) et chez RED (RED CINE-X), la montée en puissance de Resolve (anciennement DaVinci), et l'omniprésence du "hype" autour du 4K et du cinéma numérique, ont montré la nécessité de voir apparaitre des GPUs capables de traiter des quantités de données qui, pour satisfaire les usines de post-production, doivent être de plus en plus en quasi temps réel. L'accélération GPU, couplée avec le support de formats RAW natifs, s'avère être un facteur décisif pour l'évolution et le développement de la production vidéo. La semaine dernière donc, NVIDIA et AMD ont annoncé, chacun de leur côté, de nouvelles cartes graphiques haut de gamme, situées dans une fourchette avoisinant probablement les $3000, La GeForce GTX Titan Z bi-processeur pour NVIDIA et la FirePro W9100 pour AMD.

NVIDIA GeForce GTX Titan Z

Avec 2880 Cuda cores et 6Go de VRAM par GPU (pour un total de 5760 cores et 12 Go de VRAM pour les deux GPUs ensemble, et 8 teraflops en FP32), la Titan Z est , si l'on en croit le site AnandTech, "un passage obligé pour NVIDIA pour entrer le marché des cartes Dual-GPU, mettant ainsi le GPU le plus avancé de NVIDIA, le GK110, dans un produit de type station de travail à double GPU". A l'heure actuelle, cependant, la fréquence d'horloge et la consommation électrique de la carte restent inconnues, mais AnandTech ajoute:
"L'horloge du GPU devrait tourner autour de 700 MHz, presque 200 MHz de moins que la vitesse d'horloge de base de la GTX Titan Black (sans parler des horloges boostées). La direction "consumer" de NVIDIA a publié également les spécifications de la mémoire, précisant que celle-ci opérera, sans le moindre compromis à la même fréquence de 7 GHz que la GTX Titan Black".
Le site Tom's Hardware ajoute quand à lui ceci (en citant la vidéo publiée ici à la suite):
"Huang a comparé la nouvelle Titan Z à Google Brain, qui utilise un millier de serveurs comprenant 2000 CPUs (16000 cores), 600 kWatts et un prix évalué à 5 millions de dollars. Une solution utilisant la Titan Z pourrait se satisfaire de trois serveurs avec une accélération GPU et 12 GPUs NVIDIA au total."

La vidéo ci-dessous se trouve sur le blog NVIDIA.



AMD FirePro W9100


Bien qu'il ne s'agisse pas d'une carte dual-GPU, la FirePro W9100 fait forte impression avec ses 16 Go de VRAM et ses 2816 cores, auxquels il faut ajouter 2 teraFlops en calcul double précision et 5 teraFlops en capacité totale de calcul. C'est la post-production de haut niveau (ainsi qque la firme l'a annoncé dans son communiqué) qui devrait bénéficier tout particulièrement des caractéristiques de cette carte. On pourra lire, là encore sur le site AnandTech, ceci : "AMD table sur ses 16 Go de VRAM pour l'emporter en termes de performance [pour l'encodage vidéo 4K et le traitement d'image] en raison des possibilités de traitement offertes par une telle configuration mémoire." Ce que montre assez bien le diagramme suivant:


La feuille de route

Dans une autre annonce la semaine dernière, NVIDIA a fait connaitre une nouvelle feuille de route pour le développement de ses GPUs. Selon toute vraisemblance, l'architecture GPU qui sera lancée courant 2016, et dénommée Pascal, aura certaines caractéristiques déjà connues. Une de celles qui n'ont pas été annoncées jusque là - et peut-être aussi la plus intéressante - est sa nouvelle interface de communication dénommée NVLink. Selon AnandTech, NVIDIA "cherche à optimiser la charge représentée par les temps de calcul, afin de la répartir à travers un arrangement de plusieurs GPUs."
Et, selon toute vraisemblance, les 16 Go/s (à 8 giga-transferts par seconde ou 8 GT/s) du bus PCIe 3.0 - et même les 16 GT/s du prochain PCIe 4.0 - ne suffiront pas à Pascal pour permettre une communication correcte entre les différents composants de la famille.

Si on considère la capacité de chaque carte de développer des temps d'accès mémoire de plus de 250 Go/sec., on comprend pourquoi NVIDIA a besoin d'un pipeline aux capacités étendues. En termes de bande passante, NVLink disposera de 8 voies permettant le transfert de 20 Gb/sec. par voie, soit un total de 20 Go/sec (selon AnandTech, ceci équivaut à 20 GT/sec.). Selon certaines implémentations envisagées, on aura ainsi un ou plusieurs GPUs qui communiqueront directement avec le CPU à travers NVLink. Selon d'autres, on conservera l'interface du bus PCIe, comme le montre le diagramme ci-dessous:


Pour conclure, on pourra dire que de telles cartes graphiques ne sont évidemment pas destinées à tout un chacun, et probablement pas au cinéaste indépendant, qui n'aura pas besoin d'une telle puissance de feu, surtout au vu du prix par téraFlop. On pourra d'ailleurs remarquer, à titre de comparaison, que les cartes  AMD FirePro D500 qui équipent la version "Hexacoeur" du nouveau Mac Pro, se contentent de 3 Go de VRAM GDDR5 chacun et de 1526 cores ("processeurs de flux"). Mais on peut penser que des stations amenées à traiter les productions de logiciels tels que Flame d'Autodesk, ou Pablo Rio de Quantel, pourraient dans l'avenir avoir besoin de telles architectures.