mardi 9 juillet 2019

Vidéo: Histoire, technologies, développement


Philo Farnsworth, un des inventeurs de la télévision en studio (années 1930)


L’histoire de l’invention des équipements qui ont marqué le développement de la télévision est emblématique à certains égards. Elle peut montrer, en particulier, comment la technique a suivi des voies parallèles entre d’un côté un système fortement institutionnalisé et encadré, et de l’autre les pratiques d’artistes et de techniciens, voire d’artistes eux-mêmes techniciens, développant de nouvelles logiques d’usage de ces équipements, et qui tentaient ainsi d’échapper au déterminisme d’une production audiovisuelle industrialisée et de plus en plus concentrée. Il ne s’agit pas cependant de refaire ici une sorte de pensum à vocation technologique ou de retracer l’histoire de l’évolution de la télévision à la fois en tant que dispositif et système technique. Mon intention (modeste !) est de tenter de poser les premiers jalons d'une "histoire technique des techniques"[1] de la vidéo et de la télévision au cours d’une période délimitée : celle qui voit à la fois apparaitre les premiers équipements de vidéo légère et leur utilisation comme contre-technologies ou technologies alternatives, et sa clôture, plus ou moins située au tournant des années 1990, lorsque la diffusion du numérique entraine la transformation complète du système de production audiovisuelle mainstream et la migration des artistes vers la pratique du logiciel. La concordance dans le temps de ces deux évènements demande sans doute des développements approfondis. La spécialisation des effets numériques, l’importance des infrastructures à mettre en œuvre et le coût des systèmes utilisés sont à prendre en compte dans toute histoire des pratiques indépendantes de l’audiovisuel. D’autre part, le PC[2] s’impose progressivement comme machine à tout faire dans l’univers des médias alternatifs et ce hardware évolutif a deux conséquences directes sur l’univers de la création audiovisuelle :
-          Les logiciels open source permettent aux artistes d’accéder à des environnements de développement et à maitriser progressivement le code source de leurs créations
-          Les progrès accélérés en microélectronique contribuent à la baisse générale du prix des configurations et à rendre réaliste un environnement de post-production à la portée des indépendants.

Il me semble utile ici d’apporter quelques éclaircissements sur l’emploi de mots tels que « technique » ou « technologie ». La langue anglaise désigne par technology « l’ensemble de l’activité technique fondée sur l’application des sciences aux procédés de l’industrie »[3]. Il peut sembler préférable cependant de maintenir une distinction entre « technique » et « technologies », ces dernières désignant l’ensemble des machines, alors que « techniques » serait un mot recouvrant l’ensemble des procédures adoptées par les opérateurs[4].
Ce ne serait donc pas une histoire technique de la télévision mais peut-être plutôt une histoire des technologies qui ont accompagné et façonné l’émergence des nouveaux médias à travers les expérimentations d’artistes, les pratiques d’utilisation des effets spéciaux numériques qui se généralisent en post-production et l’apparition d’équipements qui deviendront les marqueurs d’une époque de transition.
La question de l’innovation technique est l’autre marqueur d’une époque considérée comme celle du grand renouvellement dans les industries culturelles au sens large. Selon Benoit Turquety, qui commente les transformations de l’industrie du cinéma, pour comprendre ces changements il convient « d’une part d’étudier l’articulation entre inventions techniques et évolution scientifique, et d’autre part de réintégrer les techniques au sein de l’ensemble des activités humaines – économie, politique, art, religion, etc. »[5]
 Il ne s’agit donc plus d’envisager l’histoire des techniques comme construite du dehors, par l’histoire générale ou l’histoire économique, mais de s’intéresser au processus de recherche dans les laboratoires et aux usages professionnels eux-mêmes. C’est dans cette réalité concrète, celle de l’utilisation des équipements, de leur adaptation ou de leur détournement qu’il faut sans doute aussi rechercher les fondements de cette histoire technique des techniques audiovisuelles.
La télévision a pourtant une caractéristique qui lui est propre puisqu’elle est à la fois le lieu de la fabrication des programmes et le système technique qui en permet la diffusion. Elle constitue donc un milieu dans lequel travaillent ensemble, se croisent et se rencontrent des corps de métiers ayant des cultures professionnelles très différentes : journalistes, directeurs de la photographie, chefs monteurs ou techniciens de maintenance n’ont en effet pas la même formation et les modalités de leurs interventions sont très différentes. Ils forment cependant une communauté attachée à la réalisation des mêmes objectifs au sein de l’entreprise télévisuelle. A côté, ou en  parallèle, ou en décalage, sont apparues des communautés formées sur le plan idéologique et désireuses d’intervenir dans le champ en construction des médias électroniques. Qu’il s’agisse d’artistes ou de militants associatifs, ou de personnes n’appartenant à aucune de ces catégories, leurs domaines d’activité et leur manière de percevoir ce nouveau monde de l’audiovisuel sont alors très différents du courant mainstream de la télévision.
On peut dire, cependant, que la télévision ne serait pas ce qu'elle est si, pendant toute une période qui court du milieu des années 1960 à la fin des années 1970, un certain nombre de ces artistes,  bricoleurs, ingénieurs ou autres personnes sans formation précise, n'avaient pas tenté de faire autre chose à partir d'un médium qui semblait au départ très difficile à mettre en œuvre, très technique et pour tout dire assez limité dans ses possibilité esthétiques en comparaison de ce que représentait alors le Cinéma. Ces expérimentations ont conduit à l'émergence de nouvelles pratiques artistiques qu'on a appelées, peut-être un peu facilement, "art vidéo". De nombreux textes existent, en français et dans bien des langues qui reviennent sur cette aventure depuis ses débuts, au cours des années 1960 et jusqu'aux transformations de ses pratiques vers la fin des années 1980, qui est le moment où on assiste à la généralisation du paradigme numérique. La plupart de ces textes traitent cependant des aspects esthétiques, voire sociologiques de la vidéo, l'aspect technique restant relativement oblitéré ou simplifié. Cette tendance est restée très présente en France, où la spécialisation dans les milieux universitaires et professionnels à conduit à séparer les aspects techniques et esthétiques de la création, surtout lorsqu'il s'agit de l'image électronique.
Mon postulat est qu'il est insuffisant aujourd'hui de développer des théories concernant la place de l'art vidéo parmi les pratiques artistiques du 20ème siècle sans prendre en considération ses spécificités technologiques. Une question émerge en particulier lorsqu’on parle de la généralisation du numérique : elle concerne le passage progressif du hardware au software comme élément paradigmatique de toute l’évolution de l’audiovisuel. C’est ce que Lev Manovich a résumé par une formule en titre d’un ouvrage : Software takes command[6].
Manovich, qui paraphrase Sigfried Giedion[7], ne s’étend pas de manière spécifique sur les évolutions survenues dans le monde de l’audiovisuel, cinéma et vidéo confondus. Il me semble cependant qu’il faut remonter la piste aux origines des expérimentations avec l’image électronique effectuées par des artistes et des techniciens pour comprendre l’évolution qui suivra en direction des « nouveaux médias » dominés par le logiciel.
De la même manière, il est difficile de comprendre l’émergence puis l’évolution de ces pratiques si on ne suit pas la trace du développement des microprocesseurs et des premiers ordinateurs personnels au cours des années 1970. Là aussi, la perspective historique peut permettre de corriger un a priori : si l’Apple II de Jobs et Wozniak a bien constitué une révolution dans l’accès à l’informatique personnelle, c’est cependant l’Amiga de Commodore qui restera dans les annales comme l’instrument de choix des artistes ayant basculé dans le numérique et le creative coding
L’obsolescence des techniques analogiques, annoncée au cours des années 1970 puis devenue effective au cours de la décennie suivante, n’a pas entrainé cependant leur disparition complète des pratiques artistiques, mais leur réévaluation et leur recyclage de plus en plus fréquents au sein de dispositifs hybrides permettant de voir, par exemple, des images vidéo stockées sur des disques vinyles et projetées sur des téléviseurs à tubes cathodiques. Pour Jussi Parikka, en effet, « Nous abordons l’avenir à travers un rétroviseur : avançant dans le futur technologique tout en regardant en arrière avec une version déformée des mythes du progrès » car « aucun medium ne meurt jamais vraiment… Nous vivons dans un contexte culturel qui s’enthousiasme pour le vieillot et le rétro. Du style des années 1980 remanié aux clubs d’écoute de vinyles en passant par les cassettes, les zines et autres discussions esthétiques sur des sujets tels que le ‶post-digital″ tout cela signale que la résurgence de l’analogique est caractéristique de la culture contemporaine. »[8]

Je reviendrai plus longuement sur ce point, mais d'abord, voici les premiers éléments de mon "enquête":
Une caméra de studio au début des années 1980

Trois phases dans l’évolution de la vidéo en tant que médium :
-         -  L’époque du « broadcast » et du développement en tant que média de masse. La vidéo est un autre mot pour « télévision »
-         -  Le deuxième moment concerne l’apparition et la diffusion des bandes et cassettes vidéo, au sein d’un ensemble de pratiques qui peuvent alors apparaitre comme une alternative à la domination de la télévision ;
-          - Enfin, la numérisation des contenus audiovisuels a conduit à considérer tous les contenus, films et vidéo, en tant que « média de l’image en mouvement » (d’après Michael Z. Newman, Video Revolutions : on the history of a medium, Columbia University Press, 2014)
Quel est alors le statut culturel de la vidéo au cours de ces trois phases ?
Selon Michael Newman, l’existence matérielle de la vidéo et sa signification ne peuvent apparaitre qu’à travers des discours sur la technologie et les pratiques sociales qui y sont associées. Faut-il pourtant reconsidérer la place de la vidéo, comme activité de production d’images électroniques, indépendante conceptuellement mais toujours liée au système technique que constituent la télévision et les pratiques de production associées au cours des années 1960 – 1970 ?
Alors que la télévision est un média de masse, qui produit des images à travers des programmes standardisés et relativement peu exigeants sur le plan intellectuel, les utilisateurs de la vidéo se démarquent dès ses débuts de ce système de production. La vidéo est utilisée par des artistes pour exprimer des idées conceptuelles autour de nouvelles formes esthétiques. Elle l’est aussi par des acteurs de la société, militants ou intellectuels engagés, intéressés par la reproduction instantanée des images et des sons que permet le médium. Dans les deux cas les utilisateurs tournent le dos au système hégémonique de la télévision commerciale ou publique[9].
Il reste que le caractère très technique du médium, très différent de l’enregistrement photographique, demandait des connaissances que peu d’utilisateurs de la vidéo avaient à ses débuts. Au cours des années 1970, il n’était pas facile pour l’amateur ou l’artiste de trouver des explications précises sur un certain nombre de concepts tels que : le signal vidéo, la synchronisation, la commutation, l’incrustation ou le montage sur bande vidéo. Il n’existait en France aucun organisme ou association capable de fournir un semblant de formation aux théories et au langage du traitement électronique des images[10] (au contraire d’ailleurs des pays anglo-saxons, où des collectifs tels que l’Experimental Television Center, autour de Ralph et Sherry Hocking, avaient pris les choses en main). La formation restait donc quelque chose de tout à fait aléatoire dans un pays où la vidéo était encore considérée comme un dispositif pouvant intéresser des militants politiques ou quelques artistes, mais trop complexe pour sortir de cercles institutionnels restreints. C’est d’ailleurs tout naturellement, pourrait-on dire, que le mouvement pour la libéralisation de la diffusion sur les ondes s’est tourné vers la radio, plus facile et surtout moins coûteuse à mettre en œuvre.
La lourdeur des dispositifs et le coût des équipements resteront longtemps des freins pour se lancer dans la création en vidéo. L’arrivée des micro-ordinateurs sur le marché, au début de la décennie 80 ne changera pas les choses, car ces machines sont alors assez peu conviviales et dépourvues de réelles capacités de traitement et de visualisation de la vidéo. Il faudra attendre le début de la décennie suivante pour voir les choses changer progressivement. Notons tout de même qu’en 1990, un Macintosh II fx doté d’une carte Rasterops 24 bits se vend environ 90000 francs[11] (sans les logiciels !). La vidéo avec l’aide de l’informatique est encore hors de prix…
La phase de la vidéo analogique se termine cependant vers la fin des années 1980. Ce dont semble prendre acte sans le dire la revue de l’EHESS Communications, dans un numéro de 1988 entièrement consacré à la création vidéo[12]. Le rôle de l’ordinateur comme vecteur de nouvelles pratiques appelées à prendre le relais de la vidéo est à peine mentionné. Il faut dire que l’autre élément, qui sera crucial pour le développement des nouvelles  formes d’art qui émergeront autour de l’informatique n’est même pas encore imaginé : il s’agit bien sûr d’Internet. La transformation sera pourtant rapide et spectaculaire, à mesure que de nouveaux ordinateurs, moins chers et surtout dotés de capacités graphiques importantes apparaitront sur le marché. Bien des artistes, cependant, conserveront une certaine réticence à intégrer ce nouveau paradigme. En témoigne l’attitude de Michel Jaffrenou à l’époque. À une question posée par Catherine Millet[13], il répond ainsi :
M. J. : Avec les images de synthèse, un nouveau processus devrait, selon certains, se mettre en route, nécessitant que les artistes participent directement à l’élaboration des programmes. Je suis, pour ma part, réservé sur cette question…
C. M. : Je ne comprends pas bien pourquoi tu penses qu’il n’est pas nécessaire que l’artiste intervienne sur le logiciel lui-même. Est-ce que ce ne serait pas de sa part une façon de maitriser la machine ?
M. J. : Sans doute. Je crois d’ailleurs qu’on va voir apparaitre des générations d’artistes qui connaitront la technologie…
C. M. : Est-ce qu’on pourrait comparer ce que mettrait en place un artiste en inventant un logiciel, qui va servir aussi à d’autres, à certains fondateurs d’écoles qui ont mis au point des systèmes formels exploités par d’autres artistes ? Autrement dit : un inventeur de logiciel aujourd’hui serait-il dans la même situation que Picasso inventant le cubisme et le léguant à Juan Gris ?
M. J. : Inventer des logiciels est sans doute une manière de créer, mais le rapport aux machines est différent. Ou bien tu as reçu une formation qui t’as rendu familier de la façon de penser avec l’informatique, ou bien ce n’est pas le cas, parce que tu préfères rêver, regarder les oiseaux…

Il est évident cependant qu’une des caractéristiques qui différencie de manière radicale la vidéo analogique des technologies numériques de la fin du siècle c’est justement la possibilité d’intervenir sur le matériel, par le biais du logiciel et d’en changer les caractéristiques ou la destination. Ce que Lev Manovich résume dans son deuxième opus consacré aux nouveaux média :
« In short, “new media” is “new” because new properties (i.e., new software techniques) can always be easily added to it. Put differently, in industrial (i.e. mass-produced) media technologies,
“hardware” and “software” were one and the same thing. For example, the book pages were bound in a particular way that fixe the order of pages. The reader could not change this order nor the level of detail being displayed à la Engelbart’s “view control.” Similarly, the film projector combined hardware and what we now call a “media player” software into a single machine. In the same way, the controls built into a twentieth-century mass-produced camera could not be modified at the user’s will. And although today the users of a digital camera similarly cannot easily modify the hardware of their camera, as soon as they transfer the pictures into a computer they have access to endless number of controls and options for modifying their pictures via software. »[14]

Il y a cependant des équipements emblématiques de la vidéo, et dont l’utilisation restera au centre de toutes les phases et transformations des industries culturelles. Et le premier de ces équipements sera bien sûr la caméra vidéo.

Caméra vidéo…
Sony lance son « Portapak » (portable analog video recorder system) en 1967. Le système AV-3400 Portapak est composé de l’enregistreur DV-2400 couplé avec la caméra DVC-2400. La caméra filme en noir et blanc. Le magnétoscope à têtes hélicoïdales enregistre sur des bandes ½ pouce.
« Pour la première fois, un individu dont le niveau d’expertise n’était en rien comparable à celui du professionnel de la télévision se trouvait en mesure de transporter avec lui tous les équipements de la production télévisuelle » (Ben Keen, cité par Michael Newman)
Dans les milieux de l’art et dans celui de l’art vidéo, le Portapak symbolise alors une manière « décentralisée, anarchiste, à double sens et transportable » (Maxwell Dawson, cité par Michael Newman) d’investir le monde de l’image électronique.

VTR, Videotape, videocassette, vidéodisque interactif…
-          L’apparition du magnétoscope « pour tous » remonte à 1968 : plusieurs compagnies américaines dévoilent des prototypes de machines à moins de 1000$ l’unité. A l’époque, un magnétoscope professionnel à bandes est vendu par Ampex à plus de 50000$. Cette machine, introduite en 1956, utilisait un système de balayage latéral à 4 têtes (Quadruplex) sur une bande de 2 pouces.
-          Le standard 2 pouces de la production « broadcast » sera supplanté à la fin des années 1980 par des magnétoscopes à bande 1 pouce type C (Sony) et B (Bosch Fernseh)
-          Cependant, le Betamax de Sony, qui est le premier magnétoscope à cassette destiné à un usage « grand public » est mis sur le marché en 1975. A l’époque, Sony produit déjà des machines à cassettes pour le marché institutionnel et broadcast sous la dénomination « U-matic » (1971).
Qu’il soit à bande ou à cassettes, relié à une caméra par un câble ou bien intégré à la caméra dans le dispositif qui s’appellera « caméscope » (camcorder), le magnétoscope sera l’élément central de la télévision, puis de la création vidéo. Il permettra tout d’abord de s’affranchir de la notion de direct et de diffuser à n’importe quelle heure des programmes auparavant débarrassés de leurs « scories ». Pour les stations américaines de la fin des années 1950, ces machines ouvrent de nouvelles possibilités comme celle consistant à diffuser sur la côte Ouest des programmes préalablement enregistrés sur la côte Est, avec quelques heures de décalage dues au fuseau horaire. Ces machines exercent donc une véritable fonction de reproduction électromécanique de la réalité et de contrôle du temps grâce à l’enregistrement
Ces machines inaugurent aussi l’ère du montage en vidéo…

Le mélangeur vidéo ou vision mixer (que l’on distingue généralement du switcher) :
Placé au cœur de la régie vidéo, il reçoit à l’entrée des sources aussi diverses que des caméras, des lecteurs vidéo, des sources vidéographiques, pour redistribuer en sortie la source ou le mélange de sources choisi en fonction des desiderata d’une production. En fait, le mélangeur qui était à l’origine une simple console de commutation des sources, avec plusieurs entrées et une sortie, en est arrivé progressivement à intégrer l’ensemble des effets spéciaux à réaliser au cours d’une production ou d’un enregistrement en post-production.

Exemple d'une création effectuée avec le Videokalos (Wireless World,1975)
Synthétiseur vidéo
La machine à tout faire de l’art vidéo. Les premiers appareils sont conçus au cours des années 1960 par des artistes et des techniciens qui voyaient là un moyen d’explorer « l’espace électronique artificiel produit par leurs moniteurs vidéo. » (Peter Sachs Collopy)
Ces machines, conçues au départ comme des ordinateurs analogiques, représentaient un point de convergence entre informatique graphique, art vidéo et les explorations technologiques de la contre-culture.
Deux machines emblématiques de l’époque : l’EMS Spectron et le Videokalos qui, montés en cascade représentaient déjà une solution complète de synthèse vidéo analogique. Ces appareils ont été conçus et utilisés d’abord au Royaume Uni (Peter Donebauer, Richard Monkhouse). En France ils n’ont connu qu’un succès relatif, utilisés surtout par Hervé Nisic, au début des années 1980 et par Marcel Dupouy, un inventeur, toujours en activité, qui a créé ses propres machines.

La Paintbox de Quantel
La Paint Box de Quantel
Premier équipement conçu pour des applications de vidéographie et répondant aux spécifications broadcast des industries de l’audiovisuel, elle marque les années 1980 et devient incontournable pour tous les ‘habillages’ créatifs réalisés par les chaines de télévision et les créateurs indépendants. Elle est aussi, surtout, le premier ordinateur numérique doté d’entrées sorties vidéo à avoir été utilisé de manière intensive sur des clips, des publicités et des émissions de télévision.

Les effets spéciaux en vidéo :
1.      On remarquera tout d’abord la bascule effectuée au début des années 1980. Les effets spéciaux quittent alors l’arène expérimentale et intègrent les régies des chaines de télévision et des grandes sociétés de post-production. Chroma key et DVE deviennent des affaires sérieuses que les grandes structures utiliseront désormais dans un cadre rigoureux qui ne laisse plus de place à l’improvisation. Une perte évidente du côté de la créativité… Le début de l’industrialisation des effets spéciaux numériques.
2.      Il est intéressant de rechercher la généalogie des effets spéciaux de la vidéo (analogiques et numériques) dans l’histoire du cinéma. Les caches-contrecache, la rear projection préfigurent en effet les incrustations de type chroma key. La motion capture (ou mocap), technique déjà plus complexe à mettre en œuvre et dont la mise au point remonte à seulement quelques années, a sans doute comme précurseur la chronophotographie de Marey (voir le texte de Trond Lundema dans Techniques et technologies du cinéma, ouvrage dirigé par André Gaudreault et Martin Lefebvre, PUR, 2015). Les translations et transformations (redimensionnement, rotation) sur 3 axes, caractéristiques des DVE de première génération, n’ont pas d’ancêtres aussi lointains. Les ordinateurs analogiques des années 1950-1960 et les oscilloscopes fournissent déjà une assez bonne approximation de ce vers quoi se dirigera cette esthétique des effets spéciaux en vidéo.
3.      Les origines mathématiques de l’infographie analogique : si on peut qualifier certains processeurs vidéo d’ordinateurs analogiques, le terme d’infographie analogique pour désigner les créations réalisées à l’aide de ces machines peut sembler justifié. Les possibilités de ces machines restent cependant assez limitées : les synthétiseurs vidéo analogiques (comme l’EMS Spectron) travailleront surtout à la création de modèles du type pavage dans le plan et symétries. Des appareils tels que le Scanimate parviendront à recréer l’illusion de la 3D grâce à l’interaction de nombreux oscillateurs (le scanimate est un peu l’équivalent du synthétiseur audio des années 1970). Les frères Whitney utiliseront des machines analogiques pour créer des effets spéciaux : le générique d’entrée de Vertigo, par exemple, et ceux de plusieurs émissions de télévision des années 1960.
4.      Une théorie de certains effets spéciaux emblématiques reste à écrire : le chroma key (i. e. l’incrustation), par exemple. Son histoire, sa technique, ses utilisations… Du chroma key on passera au compositing, ou digital compositing, ce qui est une manière de désigner la fabrique des effets spéciaux en post-production. L’incrustation classique, dont l’assemblage est réalisé en plateau, cède la place progressivement à la composition numérique, dont les principes et les possibilités sont fondamentalement différents : selon Lev Manovich[15], l’image numérique permet de composer des couches d’images en nombre illimité, au contraire de l’incrustation électronique qui se contente d’assembler des images vidéo de sources différentes. La différence est d’ordre qualitatif : la création d’univers virtuels est désormais à la portée des cinéastes. Cependant, on remarque une évolution importante depuis la publication du livre de Manovich en 2001 puisque, avant même cette date, on a commencé à voir de plus en plus d’images de synthèse en mouvement apparaitre sur les plateaux télé au sein de véritables studios virtuels.
Développer : digital compositing versus optical film compositing. Au cinéma comme à la télévision les compositions numériques ont remplacé les expositions multiples (multiple exposure) et les écrans de projection à l’arrière de la scène filmée (background projection). Les stations de travail intégrées au sein du processus de production ont remplacé la truca optique et la prévisualisation du rendu final a permis au flux de production d’être plus rapide et plus facilement modifiable.

Les effets spéciaux numériques au tournant des années 1990 :
Si une première approche des effets spéciaux en vidéo nous amène à nous concentrer sur le travail en régie (voir supra), dès le début des années 1980 de nouveaux systèmes très puissants et très spécialisés vont apparaitre et étendre progressivement le champ de la création au-delà de la régie et de sa console. Avec ces nouveaux logiciels qui tournent sur des stations de travail graphiques, avec un hardware spécialisé ou non, ce type de créations quitte presque définitivement la régie de production. La complexité du travail et les temps de rendu sur des systèmes tels que le Mirage de Quantel (qui est pourtant positionné comme un processeur d’effets vidéo numériques temps réel en 1982), et par la suite des machines tels que les Henry et Hal de Quantel (systèmes de compositing haut de gamme, 1992) ou les Flame et Inferno de Discreet Logic (compositing pour le cinéma et la vidéo, 1992), vont trouver leur place dans les salles de post-production de sociétés spécialisés. Le coût de ces systèmes, par ailleurs, les réservera aux grosses productions et aux diffuseurs de la télévision.
Les problèmes liés à la rentabilité et le financement même de ces systèmes par les entreprises qui en font l’acquisition éloigneront la plupart des créateurs vidéo de ces nouveaux studios de production, en introduisant dès lors des questions de notoriété dans l’accès aux aides et aux subventions, publiques et privées. La vidéo reproduit très rapidement ce qui se passait déjà au niveau du cinéma, en distinguant entre ceux qui ont les moyens d’accéder à des équipements sophistiqués et aux structures de production qui les mettent en œuvre et ceux qui devront passer par des circuits institutionnels ou plus ou moins parallèles (c’est-à-dire des maisons de la culture, des structures éducatives, etc.). Le vieux rêve de la télévision libre implique en effet des financements d’un autre ordre que celui de la radio.
Un autre problème se posera aussi très rapidement aux apprentis vidéastes du début des années 1980 : face à la sophistication et à la complexité croissante des équipements, il n’existe pratiquement pas de circuit d’apprentissage et/ou de formation digne de ce nom, en dehors de ce que mettent en place les grandes entreprises (les chaines de télévision, la SFP, l’INA et certains prestataires privés…), sachant que pour beaucoup d’entre elles la formation se fait sur le tas, la tendance étant alors de recruter des profils techniques, n’ayant que peu ou pas du tout de formation artistique.
A quoi ressemble en effet une société de production audiovisuelle, spécialisée dans les effets spéciaux (film, vidéo, télévision…) au début des années 1980 ?
Voir : Mikros, GL-Pipa, Riff, toutes ces sociétés ont été créées au cours des années 1980, au moment où la demande pour des effets spéciaux numériques explose au cinéma et devient progressivement de plus en plus importante à la télévision. Elles rassemblent des personnels aux profils très divers, techniques (électronique) pour la plupart ou issus de formations généralistes mais capables de s’adapter à un environnement en mutation. En réalité, les électroniciens eux-mêmes n’ont qu’une connaissance très superficielle des équipements qui apparaissent sur le marché à l’époque mais pour beaucoup, quelques éléments de formation et les capacités d’adaptation feront le reste : il est notoire, par exemple, que parmi les techniciens d’exploitation recrutés par Canal Plus, au moment du lancement de la chaine en novembre 1984, très peu avaient une expérience significative du métier et des nouveaux équipements qu’ils allaient utiliser. Qui connaissait en effet l’Abekas A51 ou le mélangeur GVG300, voire le magnétoscope Sony BVH 2000 ? Personne ne pouvait se targuer d’une expérience d’opérateur sur les commandes de voies caméra Ikegami HL79…
Une chose est sûre : rester en dehors de ce microcosme technique, au tournant de la décennie, signifie qu’on n’aura pas accès aux nouveaux équipements qui apparaissent sur le marché, soit parce qu’on n’en a pas les moyens, soit parce que les connaissances techniques font défaut.

Rôle de l’ordinateur graphique :
L’apparition du PC et du Mac, les possibilités graphiques de ces machines à mesure que le matériel devient plus performant, le développement de logiciels spécialisés mais, plus encore, celui de langages de programmation plus accessibles à des artistes qui ne seraient pas des programmeurs professionnels, expliquent en partie le passage progressif de l’art vidéo analogique à l’art numérique. Il y a d’autre part le coût de plus en plus élevé de la production audiovisuelle (voir le paragraphe précédent). L’ordinateur personnel devient alors une alternative aux équipements vidéo traditionnels, tout en introduisant des logiques nouvelles, de plus en plus éloignées de celles en usage jusque-là.

Autres équipements emblématiques de l’époque « pré-digital » (et même après) :
-          Le VTR ou enregistreur vidéo sur bandes, puis sur cassettes (voir supra) et son complément de l’époque analogique :
-          Le TBC (Time Base Corrector) : élément indispensable dès lors que l’on songe à relier des appareils entre eux et à réaliser un système de traitement d’images. Le TBC est à l’origine conçu pour aligner la base de temps d’un magnétoscope sur celle des autres équipements en post-production. En vidéo composite ceci était particulièrement important lorsqu’on sait qu’une erreur de phase de 5 degrés sur une sous-porteuse couleur à 3.58 MHz (en NTSC donc) est déjà visible à l’œil.
-          Le générateur de signaux de synchronisation qui fournit le « black burst » servant à aligner tous les équipements d’une régie vidéo
-          Les « mémoires d’image » ou frame synchronizer. En 1980 cet équipement fait son apparition dans les chaines de télévision et permet alors de synchroniser sans difficulté des éléments vidéo extérieurs avec des sources produites à l’intérieur des régies de diffusion et, par conséquent, la commutation sur des mélangeurs en temps réel. De nos jours, les synchroniseurs sont intégrés dans de nombreux équipements. Cette évolution a rendu obsolète le concept même de genlock. Cependant, des difficultés subsistent lorsqu’il s’agit d’aligner des sources audio et vidéo.
-          Les DVE (Digital Video Effect) : on devrait ajouter « Generator », mais l’usage de l’acronyme raccourci s’est généralisé. Des machines telles que l’Abekas A60 vont amener les premiers effets numériques en temps réel au sein des régies vidéo. Les transitions réalisées à l’aide de ces machines vont devenir omniprésentes dans l’habillage de la plupart des émissions de télévision du début des années 1980.
L’époque qui s’étend de la fin des années 1970 au début des années 1990 est cependant celle de l’hybridation. Les équipements numériques sont désormais présents partout sous forme de consoles spécialisées (Paint Box, Character Generator, consoles de montage type BVE, etc.) mais le système est encore analogique : les entrées et sorties, le codage, l’enregistrement et la diffusion…
Les impasses et les échecs : vie et mort des techniques…
L’enregistrement sur disques optiques : cette technologie n’est pas tout à fait récente, puisqu’on peut remonter jusqu’à Georges Demeny qui avait breveté un « phonoscope » qui projetait des images issues des chronophotographies sur un disque en verre. Cependant, ce sont les développements modernes de l’électronique qui vont permettre le développement de cette technologie.
Un cas particulièrement intéressant : le vidéodisque interactif. Cette technologie a constitué la première tentative de rapprochement entre l’image, le son et l’informatique. Sur ce dispositif, l’image et le son sont stockés sur un disque laser de 12 pouces. Le lecteur de vidéodisque est connecté à un PC qui se charge de piloter la machine et d’offrir, par logiciel, les commandes interactives.
La diffusion de l’informatique avec les PC fait naitre l’idée de l’interactivité, qui devient un concept clé de l’imaginaire technologique du début des années 1980. On peut ainsi se référer aux recherches entreprises à l’époque par le MIT au sein de l’Architecture Machine Group. Un article de Richard A. Bolt, qui faisait partie de l’équipe du MIT, fait le point sur la question : « Les images interactives », La Recherche, Spécial « La Révolution des Images », n° 144 (1983).


[1] Pour paraphraser Lucien Febvre : « Annales d’histoire économique et sociale : revue trimestrielle / directeurs : Marc Bloch, Lucien Febvre », n°36, Gallica, 1935. p.531-532.
[2] Windows, Linux ou Mac OS : je considère qu’il s’agit de systèmes d’exploitation qui tournent sur des ordinateurs personnels (Personal Computer)
[3] Jacques Guillerme et Jan Sebestik : « Les commencements de la technologie », Thalès, vol. 12, 1968, p. 44
[4][4] Pour de plus amples développements voir : Benoît Turqutey, Inventer le cinéma. Épistémologie : problèmes, machines, p. 28, L’Âge d’Homme, 2014.
[5] B. Turquety, op. cit. p. 79.
[6] Lev Manovich, Software takes command, New York London, Bloomsbury, 2014.
[7] Sigfried Giedion, Mechanization takes command, Oxford University Press, 1948.
[8] Jussi PARIKKA : « Combien d’archéologies des média ? », MCD Magazine des Cultures Digitales, pp. 10 – 13, N° 75 (2014).
[9] Il faut remarquer en effet que dans de nombreux pays, y compris dans les démocraties occidentales, la télévision est restée longtemps une affaire d’Etat. La France, par exemple, a attendu les années 1980 pour voir apparaitre des réseaux de télévision privée sur son sol. Cela est dû sans doute au caractère particulier de ce médium qui tend à supplanter rapidement tous les autres, mais qui permet aussi aux gouvernants de s’introduire dans le foyer de n’importe quel citoyen.
[10] Si l’on excepte les formations effectuées au sein d’entreprises publiques telles que la SFP ou les chaines de télévision.
[11] Source : Science et Vie Micro, N°72, Mai 1990
[12] « Vidéo », dirigé par Raymond Bellour et Anne-Marie Duguet, Communications N° 48, 1988.
[13] « Michel Jaffrenou travailler avec le temps », Artpress Spécial Nouvelles Technologies, N° 12, 1991.
[14] Lev Manovich, op. cit., p. 92.
[15] Lev MANOVICH, Le Langage des Nouveaux Médias, pp. 266 – 302, Les Presses du Réel (2010)





Aucun commentaire:

Enregistrer un commentaire