Philo Farnsworth, un des inventeurs de la télévision en studio (années 1930) |
L’histoire de l’invention des équipements qui ont marqué le
développement de la télévision est emblématique à certains égards. Elle peut
montrer, en particulier, comment la technique a suivi des voies parallèles
entre d’un côté un système fortement institutionnalisé et encadré, et de
l’autre les pratiques d’artistes et de techniciens, voire d’artistes eux-mêmes
techniciens, développant de nouvelles logiques d’usage de ces équipements, et
qui tentaient ainsi d’échapper au déterminisme d’une production audiovisuelle industrialisée
et de plus en plus concentrée. Il ne s’agit pas cependant de refaire ici une
sorte de pensum à vocation technologique ou de retracer l’histoire de
l’évolution de la télévision à la fois en tant que dispositif et système
technique. Mon intention (modeste !) est de tenter de poser les premiers
jalons d'une "histoire technique des techniques"[1] de la vidéo et de la
télévision au cours d’une période délimitée : celle qui voit à la fois
apparaitre les premiers équipements de vidéo légère et leur utilisation comme
contre-technologies ou technologies alternatives, et sa clôture, plus ou moins
située au tournant des années 1990, lorsque la diffusion du numérique entraine
la transformation complète du système de production audiovisuelle mainstream et la migration des artistes
vers la pratique du logiciel. La concordance dans le temps de ces deux
évènements demande sans doute des développements approfondis. La spécialisation
des effets numériques, l’importance des infrastructures à mettre en œuvre et le
coût des systèmes utilisés sont à prendre en compte dans toute histoire des
pratiques indépendantes de l’audiovisuel. D’autre part, le PC[2] s’impose progressivement
comme machine à tout faire dans l’univers des médias alternatifs et ce hardware
évolutif a deux conséquences directes sur l’univers de la création
audiovisuelle :
-
Les logiciels open
source permettent aux artistes d’accéder à des environnements de développement
et à maitriser progressivement le code source de leurs créations
-
Les progrès accélérés
en microélectronique contribuent à la baisse générale du prix des
configurations et à rendre réaliste un environnement de post-production à la
portée des indépendants.
Il me semble utile ici d’apporter quelques éclaircissements
sur l’emploi de mots tels que « technique » ou
« technologie ». La langue anglaise désigne par technology « l’ensemble de l’activité technique fondée sur
l’application des sciences aux procédés de l’industrie »[3]. Il peut sembler
préférable cependant de maintenir une distinction entre « technique » et « technologies », ces dernières
désignant l’ensemble des machines, alors que « techniques » serait un mot recouvrant l’ensemble des
procédures adoptées par les opérateurs[4].
Ce ne serait donc pas une histoire technique de la
télévision mais peut-être plutôt une histoire des technologies qui ont accompagné
et façonné l’émergence des nouveaux médias à travers les expérimentations
d’artistes, les pratiques d’utilisation des effets spéciaux numériques qui se
généralisent en post-production et l’apparition d’équipements qui deviendront
les marqueurs d’une époque de transition.
La question de l’innovation technique est l’autre marqueur
d’une époque considérée comme celle du grand renouvellement dans les industries
culturelles au sens large. Selon Benoit Turquety, qui commente les
transformations de l’industrie du cinéma, pour comprendre ces changements il convient
« d’une part d’étudier l’articulation entre inventions techniques et
évolution scientifique, et d’autre part de réintégrer les techniques au sein de
l’ensemble des activités humaines – économie, politique, art, religion,
etc. »[5]
Il ne s’agit donc
plus d’envisager l’histoire des techniques comme construite du dehors, par
l’histoire générale ou l’histoire économique, mais de s’intéresser au processus
de recherche dans les laboratoires et aux usages professionnels eux-mêmes.
C’est dans cette réalité concrète, celle de l’utilisation des équipements, de
leur adaptation ou de leur détournement qu’il faut sans doute aussi rechercher
les fondements de cette histoire technique des techniques audiovisuelles.
La télévision a pourtant une caractéristique qui lui est propre
puisqu’elle est à la fois le lieu de la fabrication des programmes et le
système technique qui en permet la diffusion. Elle constitue donc un milieu
dans lequel travaillent ensemble, se croisent et se rencontrent des corps de
métiers ayant des cultures professionnelles très différentes :
journalistes, directeurs de la photographie, chefs monteurs ou techniciens de
maintenance n’ont en effet pas la même formation et les modalités de leurs
interventions sont très différentes. Ils forment cependant une communauté
attachée à la réalisation des mêmes objectifs au sein de l’entreprise
télévisuelle. A côté, ou en parallèle,
ou en décalage, sont apparues des communautés formées sur le plan idéologique
et désireuses d’intervenir dans le champ en construction des médias
électroniques. Qu’il s’agisse d’artistes ou de militants associatifs, ou de
personnes n’appartenant à aucune de ces catégories, leurs domaines d’activité
et leur manière de percevoir ce nouveau monde de l’audiovisuel sont alors très
différents du courant mainstream de
la télévision.
On peut dire, cependant, que la télévision ne serait
pas ce qu'elle est si, pendant toute une période qui court du milieu des années
1960 à la fin des années 1970, un certain nombre de ces artistes, bricoleurs, ingénieurs ou autres personnes sans formation précise, n'avaient pas tenté de faire autre chose à partir d'un médium qui
semblait au départ très difficile à mettre en œuvre, très technique et pour
tout dire assez limité dans ses possibilité esthétiques en comparaison de ce
que représentait alors le Cinéma. Ces expérimentations ont conduit à
l'émergence de nouvelles pratiques artistiques qu'on a appelées, peut-être un
peu facilement, "art vidéo". De nombreux textes existent, en français
et dans bien des langues qui reviennent sur cette aventure depuis ses débuts,
au cours des années 1960 et jusqu'aux transformations de ses pratiques vers la
fin des années 1980, qui est le moment où on assiste à la généralisation du
paradigme numérique. La plupart de ces textes traitent cependant des aspects
esthétiques, voire sociologiques de la vidéo, l'aspect technique restant
relativement oblitéré ou simplifié. Cette tendance est restée très présente en
France, où la spécialisation dans les milieux universitaires et professionnels
à conduit à séparer les aspects techniques et esthétiques de la création,
surtout lorsqu'il s'agit de l'image électronique.
Mon postulat est qu'il est insuffisant aujourd'hui de
développer des théories concernant la place de l'art vidéo parmi les pratiques
artistiques du 20ème siècle sans prendre en considération ses spécificités
technologiques. Une question émerge en particulier lorsqu’on parle de la
généralisation du numérique : elle concerne le passage progressif du
hardware au software comme élément paradigmatique de toute l’évolution de
l’audiovisuel. C’est ce que Lev Manovich a résumé par une formule en titre d’un
ouvrage : Software takes command[6].
Manovich, qui paraphrase Sigfried Giedion[7], ne s’étend pas de manière
spécifique sur les évolutions survenues dans le monde de l’audiovisuel, cinéma
et vidéo confondus. Il me semble cependant qu’il faut remonter la piste aux
origines des expérimentations avec l’image électronique effectuées par des
artistes et des techniciens pour comprendre l’évolution qui suivra en direction
des « nouveaux médias » dominés par le logiciel.
De la même manière, il est difficile de comprendre l’émergence
puis l’évolution de ces pratiques si on ne suit pas la trace du développement
des microprocesseurs et des premiers ordinateurs personnels au cours des années
1970. Là aussi, la perspective historique peut permettre de corriger un a priori : si l’Apple II de Jobs et
Wozniak a bien constitué une révolution dans l’accès à l’informatique
personnelle, c’est cependant l’Amiga de Commodore qui restera dans les annales
comme l’instrument de choix des artistes ayant basculé dans le numérique et le creative coding…
L’obsolescence des techniques analogiques, annoncée au
cours des années 1970 puis devenue effective au cours de la décennie suivante,
n’a pas entrainé cependant leur disparition complète des pratiques artistiques,
mais leur réévaluation et leur recyclage de plus en plus fréquents au sein de
dispositifs hybrides permettant de voir, par exemple, des images vidéo stockées
sur des disques vinyles et projetées sur des téléviseurs à tubes cathodiques.
Pour Jussi Parikka, en effet, « Nous abordons l’avenir à travers un
rétroviseur : avançant dans le futur technologique tout en regardant en
arrière avec une version déformée des mythes du progrès » car « aucun
medium ne meurt jamais vraiment… Nous vivons dans un contexte culturel qui
s’enthousiasme pour le vieillot et le rétro. Du style des années 1980 remanié
aux clubs d’écoute de vinyles en passant par les cassettes, les zines et autres
discussions esthétiques sur des sujets tels que le ‶post-digital″ tout cela
signale que la résurgence de l’analogique est caractéristique de la culture
contemporaine. »[8]
Je reviendrai plus longuement sur ce point, mais d'abord,
voici les premiers éléments de mon "enquête":
Trois phases dans
l’évolution de la vidéo en tant que médium :
- -
L’époque du « broadcast » et
du développement en tant que média de masse. La vidéo est un autre mot pour
« télévision »
- -
Le deuxième moment concerne l’apparition
et la diffusion des bandes et cassettes vidéo, au sein d’un ensemble de
pratiques qui peuvent alors apparaitre comme une alternative à la domination de
la télévision ;
-
- Enfin, la numérisation des contenus audiovisuels
a conduit à considérer tous les contenus, films et vidéo, en tant que
« média de l’image en mouvement » (d’après Michael Z. Newman, Video Revolutions : on the history of a
medium, Columbia University Press, 2014)
Quel est alors
le statut culturel de la vidéo au cours de ces trois phases ?
Selon Michael
Newman, l’existence matérielle de la vidéo et sa signification ne peuvent
apparaitre qu’à travers des discours sur la technologie et les pratiques
sociales qui y sont associées. Faut-il pourtant reconsidérer la place de la
vidéo, comme activité de production d’images électroniques, indépendante
conceptuellement mais toujours liée au système technique que constituent la
télévision et les pratiques de production associées au cours des années 1960 –
1970 ?
Alors que la
télévision est un média de masse, qui produit des images à travers des
programmes standardisés et relativement peu exigeants sur le plan intellectuel,
les utilisateurs de la vidéo se démarquent dès ses débuts de ce système de production.
La vidéo est utilisée par des artistes pour exprimer des idées conceptuelles
autour de nouvelles formes esthétiques. Elle l’est aussi par des acteurs de la
société, militants ou intellectuels engagés, intéressés par la reproduction
instantanée des images et des sons que permet le médium. Dans les deux cas les
utilisateurs tournent le dos au système hégémonique de la télévision
commerciale ou publique[9].
Il reste que le
caractère très technique du médium, très différent de l’enregistrement
photographique, demandait des connaissances que peu d’utilisateurs de la vidéo
avaient à ses débuts. Au cours des années 1970, il n’était pas facile pour
l’amateur ou l’artiste de trouver des explications précises sur un certain
nombre de concepts tels que : le signal vidéo, la synchronisation, la
commutation, l’incrustation ou le montage sur bande vidéo. Il n’existait en
France aucun organisme ou association capable de fournir un semblant de
formation aux théories et au langage du traitement électronique des images[10]
(au contraire d’ailleurs des pays anglo-saxons, où des collectifs tels que
l’Experimental Television Center, autour de Ralph et Sherry Hocking, avaient
pris les choses en main). La formation restait donc quelque chose de tout à
fait aléatoire dans un pays où la vidéo était encore considérée comme un
dispositif pouvant intéresser des militants politiques ou quelques artistes,
mais trop complexe pour sortir de cercles institutionnels restreints. C’est
d’ailleurs tout naturellement, pourrait-on dire, que le mouvement pour la
libéralisation de la diffusion sur les ondes s’est tourné vers la radio, plus
facile et surtout moins coûteuse à mettre en œuvre.
La lourdeur des
dispositifs et le coût des équipements resteront longtemps des freins pour se
lancer dans la création en vidéo. L’arrivée des micro-ordinateurs sur le
marché, au début de la décennie 80 ne changera pas les choses, car ces machines
sont alors assez peu conviviales et dépourvues de réelles capacités de
traitement et de visualisation de la vidéo. Il faudra attendre le début de la
décennie suivante pour voir les choses changer progressivement. Notons tout de
même qu’en 1990, un Macintosh II fx doté d’une carte Rasterops 24 bits se vend
environ 90000 francs[11]
(sans les logiciels !). La vidéo avec l’aide de l’informatique est encore
hors de prix…
La phase de la
vidéo analogique se termine cependant vers la fin des années 1980. Ce dont
semble prendre acte sans le dire la revue de l’EHESS Communications, dans un
numéro de 1988 entièrement consacré à la création vidéo[12].
Le rôle de l’ordinateur comme vecteur de nouvelles pratiques appelées à prendre
le relais de la vidéo est à peine mentionné. Il faut dire que l’autre élément,
qui sera crucial pour le développement des nouvelles formes d’art qui émergeront autour de
l’informatique n’est même pas encore imaginé : il s’agit bien sûr
d’Internet. La transformation sera pourtant rapide et spectaculaire, à mesure
que de nouveaux ordinateurs, moins chers et surtout dotés de capacités
graphiques importantes apparaitront sur le marché. Bien des artistes,
cependant, conserveront une certaine réticence à intégrer ce nouveau paradigme.
En témoigne l’attitude de Michel Jaffrenou à l’époque. À une question posée par
Catherine Millet[13],
il répond ainsi :
M. J. :
Avec les images de synthèse, un nouveau processus devrait, selon certains, se
mettre en route, nécessitant que les artistes participent directement à
l’élaboration des programmes. Je suis, pour ma part, réservé sur cette
question…
C. M. : Je ne comprends pas bien pourquoi tu penses
qu’il n’est pas nécessaire que l’artiste intervienne sur le logiciel lui-même.
Est-ce que ce ne serait pas de sa part une façon de maitriser la machine ?
M. J. :
Sans doute. Je crois d’ailleurs qu’on va voir apparaitre des générations d’artistes
qui connaitront la technologie…
C. M. : Est-ce qu’on pourrait comparer ce que
mettrait en place un artiste en inventant un logiciel, qui va servir aussi à
d’autres, à certains fondateurs d’écoles qui ont mis au point des systèmes
formels exploités par d’autres artistes ? Autrement dit : un
inventeur de logiciel aujourd’hui serait-il dans la même situation que Picasso
inventant le cubisme et le léguant à Juan Gris ?
M. J. :
Inventer des logiciels est sans doute une manière de créer, mais le rapport aux
machines est différent. Ou bien tu as reçu une formation qui t’as rendu
familier de la façon de penser avec l’informatique, ou bien ce n’est pas le
cas, parce que tu préfères rêver, regarder les oiseaux…
Il est évident
cependant qu’une des caractéristiques qui différencie de manière radicale la
vidéo analogique des technologies numériques de la fin du siècle c’est
justement la possibilité d’intervenir sur le matériel, par le biais du logiciel
et d’en changer les caractéristiques ou la destination. Ce que Lev Manovich
résume dans son deuxième opus consacré aux nouveaux média :
« In short, “new media” is “new” because new
properties (i.e., new
software techniques) can always be easily added to it. Put differently,
in industrial (i.e. mass-produced) media technologies,
“hardware”
and “software” were one and the same thing. For example,
the book pages were bound in a particular way that fixe the
order of pages. The reader could not change this order nor the
level of detail being displayed à la Engelbart’s “view control.” Similarly,
the film projector combined hardware and what we now call
a “media player” software into a single machine. In the same way,
the controls built into a twentieth-century mass-produced camera
could not be modified at the user’s will. And although today
the users of a digital camera similarly cannot easily modify the
hardware of their camera, as soon as they transfer the pictures into
a computer they have access to endless number of controls and options
for modifying their pictures via software. »[14]
Il y a cependant
des équipements emblématiques de la vidéo, et dont l’utilisation restera au
centre de toutes les phases et transformations des industries culturelles. Et
le premier de ces équipements sera bien sûr la caméra vidéo.
Caméra vidéo…
Sony lance son
« Portapak » (portable analog video recorder system) en 1967. Le
système AV-3400 Portapak est composé de l’enregistreur DV-2400 couplé avec la
caméra DVC-2400. La caméra filme en noir et blanc. Le magnétoscope à têtes
hélicoïdales enregistre sur des bandes ½ pouce.
« Pour la
première fois, un individu dont le niveau d’expertise n’était en rien
comparable à celui du professionnel de la télévision se trouvait en mesure de
transporter avec lui tous les équipements de la production télévisuelle »
(Ben Keen, cité par Michael Newman)
Dans les milieux
de l’art et dans celui de l’art vidéo, le Portapak symbolise alors une manière
« décentralisée, anarchiste, à double sens et transportable »
(Maxwell Dawson, cité par Michael Newman) d’investir le monde de l’image
électronique.
VTR, Videotape,
videocassette, vidéodisque interactif…
-
L’apparition du magnétoscope « pour
tous » remonte à 1968 : plusieurs compagnies américaines dévoilent
des prototypes de machines à moins de 1000$ l’unité. A l’époque, un
magnétoscope professionnel à bandes est vendu par Ampex à plus de 50000$. Cette
machine, introduite en 1956, utilisait un système de balayage latéral à 4 têtes
(Quadruplex) sur une bande de 2 pouces.
-
Le standard 2 pouces de la production
« broadcast » sera supplanté à la fin des années 1980 par des
magnétoscopes à bande 1 pouce type C (Sony) et B (Bosch Fernseh)
-
Cependant, le Betamax de Sony, qui est
le premier magnétoscope à cassette destiné à un usage « grand
public » est mis sur le marché en 1975. A l’époque, Sony produit déjà des
machines à cassettes pour le marché institutionnel et broadcast sous la
dénomination « U-matic » (1971).
Qu’il soit à
bande ou à cassettes, relié à une caméra par un câble ou bien intégré à la
caméra dans le dispositif qui s’appellera « caméscope » (camcorder),
le magnétoscope sera l’élément central de la télévision, puis de la création
vidéo. Il permettra tout d’abord de s’affranchir de la notion de direct et de
diffuser à n’importe quelle heure des programmes auparavant débarrassés de
leurs « scories ». Pour les stations américaines de la fin des années
1950, ces machines ouvrent de nouvelles possibilités comme celle consistant à
diffuser sur la côte Ouest des programmes préalablement enregistrés sur la côte
Est, avec quelques heures de décalage dues au fuseau horaire. Ces machines
exercent donc une véritable fonction de reproduction électromécanique de la
réalité et de contrôle du temps grâce à l’enregistrement
Ces machines
inaugurent aussi l’ère du montage en vidéo…
Le mélangeur
vidéo ou vision mixer (que l’on
distingue généralement du switcher) :
Placé au cœur de
la régie vidéo, il reçoit à l’entrée des sources aussi diverses que des
caméras, des lecteurs vidéo, des sources vidéographiques, pour redistribuer en
sortie la source ou le mélange de sources choisi en fonction des desiderata
d’une production. En fait, le mélangeur qui était à l’origine une simple
console de commutation des sources, avec plusieurs entrées et une sortie, en
est arrivé progressivement à intégrer l’ensemble des effets spéciaux à réaliser
au cours d’une production ou d’un enregistrement en post-production.
La machine à
tout faire de l’art vidéo. Les premiers appareils sont conçus au cours des
années 1960 par des artistes et des techniciens qui voyaient là un moyen
d’explorer « l’espace électronique artificiel produit par leurs moniteurs
vidéo. » (Peter Sachs Collopy)
Ces machines,
conçues au départ comme des ordinateurs analogiques, représentaient un point de
convergence entre informatique graphique, art vidéo et les explorations
technologiques de la contre-culture.
Deux machines
emblématiques de l’époque : l’EMS Spectron et le Videokalos qui, montés en
cascade représentaient déjà une solution complète de synthèse vidéo analogique.
Ces appareils ont été conçus et utilisés d’abord au Royaume Uni (Peter
Donebauer, Richard Monkhouse). En France ils n’ont connu qu’un succès relatif,
utilisés surtout par Hervé Nisic, au début des années 1980 et par Marcel
Dupouy, un inventeur, toujours en activité, qui a créé ses propres machines.
Voir : https://youtu.be/YaFLzghCCrg
Premier
équipement conçu pour des applications de vidéographie et répondant aux
spécifications broadcast des industries de l’audiovisuel, elle marque les
années 1980 et devient incontournable pour tous les ‘habillages’ créatifs
réalisés par les chaines de télévision et les créateurs indépendants. Elle est
aussi, surtout, le premier ordinateur numérique doté d’entrées sorties vidéo à
avoir été utilisé de manière intensive sur des clips, des publicités et des
émissions de télévision.
Les effets
spéciaux en vidéo :
1.
On remarquera tout d’abord la bascule
effectuée au début des années 1980. Les effets spéciaux quittent alors l’arène
expérimentale et intègrent les régies des chaines de télévision et des grandes
sociétés de post-production. Chroma key et DVE deviennent des affaires
sérieuses que les grandes structures utiliseront désormais dans un cadre
rigoureux qui ne laisse plus de place à l’improvisation. Une perte évidente du
côté de la créativité… Le début de l’industrialisation des effets spéciaux
numériques.
2.
Il est intéressant de rechercher la
généalogie des effets spéciaux de la vidéo (analogiques et numériques) dans
l’histoire du cinéma. Les caches-contrecache, la rear projection préfigurent en
effet les incrustations de type chroma key. La motion capture (ou mocap), technique déjà plus complexe à
mettre en œuvre et dont la mise au point remonte à seulement quelques années, a
sans doute comme précurseur la chronophotographie de Marey (voir le texte de
Trond Lundema dans Techniques et technologies du cinéma, ouvrage dirigé par André Gaudreault et Martin Lefebvre, PUR, 2015). Les translations et transformations (redimensionnement,
rotation) sur 3 axes, caractéristiques des DVE de première génération, n’ont
pas d’ancêtres aussi lointains. Les ordinateurs analogiques des années
1950-1960 et les oscilloscopes fournissent déjà une assez bonne approximation
de ce vers quoi se dirigera cette esthétique des effets spéciaux en vidéo.
3.
Les origines mathématiques de
l’infographie analogique : si on peut qualifier certains processeurs vidéo
d’ordinateurs analogiques, le terme d’infographie analogique pour désigner les
créations réalisées à l’aide de ces machines peut sembler justifié. Les
possibilités de ces machines restent cependant assez limitées : les
synthétiseurs vidéo analogiques (comme l’EMS Spectron) travailleront surtout à
la création de modèles du type pavage dans le plan et symétries. Des appareils
tels que le Scanimate parviendront à
recréer l’illusion de la 3D grâce à l’interaction de nombreux oscillateurs (le scanimate est un peu l’équivalent du
synthétiseur audio des années 1970). Les frères Whitney utiliseront des
machines analogiques pour créer des effets spéciaux : le générique
d’entrée de Vertigo, par exemple, et
ceux de plusieurs émissions de télévision des années 1960.
4.
Une théorie de certains effets spéciaux
emblématiques reste à écrire : le chroma key (i. e. l’incrustation), par
exemple. Son histoire, sa technique, ses utilisations… Du chroma key on passera
au compositing, ou digital compositing, ce qui est une
manière de désigner la fabrique des effets spéciaux en post-production. L’incrustation
classique, dont l’assemblage est réalisé en plateau, cède la place
progressivement à la composition numérique, dont les principes et les
possibilités sont fondamentalement différents : selon Lev Manovich[15],
l’image numérique permet de composer des couches d’images en nombre illimité,
au contraire de l’incrustation électronique qui se contente d’assembler des
images vidéo de sources différentes. La différence est d’ordre qualitatif :
la création d’univers virtuels est désormais à la portée des cinéastes.
Cependant, on remarque une évolution importante depuis la publication du livre
de Manovich en 2001 puisque, avant même cette date, on a commencé à voir de
plus en plus d’images de synthèse en mouvement apparaitre sur les plateaux télé
au sein de véritables studios virtuels.
Développer :
digital compositing versus optical film compositing. Au cinéma comme à la
télévision les compositions numériques ont remplacé les expositions multiples
(multiple exposure) et les écrans de projection à l’arrière de la scène filmée
(background projection). Les stations de travail intégrées au sein du processus
de production ont remplacé la truca optique et la prévisualisation du rendu
final a permis au flux de production d’être plus rapide et plus facilement
modifiable.
Les effets
spéciaux numériques au tournant des années 1990 :
Si une première
approche des effets spéciaux en vidéo nous amène à nous concentrer sur le
travail en régie (voir supra), dès le début des années 1980 de nouveaux
systèmes très puissants et très spécialisés vont apparaitre et étendre
progressivement le champ de la création au-delà de la régie et de sa console.
Avec ces nouveaux logiciels qui tournent sur des stations de travail
graphiques, avec un hardware spécialisé ou non, ce type de créations quitte
presque définitivement la régie de production. La complexité du travail et les
temps de rendu sur des systèmes tels que le Mirage de Quantel (qui est pourtant
positionné comme un processeur d’effets vidéo numériques temps réel en 1982),
et par la suite des machines tels que les Henry et Hal de Quantel (systèmes de
compositing haut de gamme, 1992) ou les Flame et Inferno de Discreet Logic
(compositing pour le cinéma et la vidéo, 1992), vont trouver leur place dans
les salles de post-production de sociétés spécialisés. Le coût de ces systèmes,
par ailleurs, les réservera aux grosses productions et aux diffuseurs de la
télévision.
Les problèmes
liés à la rentabilité et le financement même de ces systèmes par les
entreprises qui en font l’acquisition éloigneront la plupart des créateurs
vidéo de ces nouveaux studios de production, en introduisant dès lors des
questions de notoriété dans l’accès aux aides et aux subventions, publiques et
privées. La vidéo reproduit très rapidement ce qui se passait déjà au niveau du
cinéma, en distinguant entre ceux qui ont les moyens d’accéder à des
équipements sophistiqués et aux structures de production qui les mettent en
œuvre et ceux qui devront passer par des circuits institutionnels ou plus ou
moins parallèles (c’est-à-dire des maisons de la culture, des structures
éducatives, etc.). Le vieux rêve de la télévision libre implique en effet des
financements d’un autre ordre que celui de la radio.
Un autre
problème se posera aussi très rapidement aux apprentis vidéastes du début des
années 1980 : face à la sophistication et à la complexité croissante des
équipements, il n’existe pratiquement pas de circuit d’apprentissage et/ou de
formation digne de ce nom, en dehors de ce que mettent en place les grandes
entreprises (les chaines de télévision, la SFP, l’INA et certains prestataires
privés…), sachant que pour beaucoup d’entre elles la formation se fait sur le
tas, la tendance étant alors de recruter des profils techniques, n’ayant que
peu ou pas du tout de formation artistique.
A quoi ressemble
en effet une société de production audiovisuelle, spécialisée dans les effets
spéciaux (film, vidéo, télévision…) au début des années 1980 ?
Voir :
Mikros, GL-Pipa, Riff, toutes ces sociétés ont été créées au cours des années
1980, au moment où la demande pour des effets spéciaux numériques explose au
cinéma et devient progressivement de plus en plus importante à la télévision.
Elles rassemblent des personnels aux profils très divers, techniques (électronique)
pour la plupart ou issus de formations généralistes mais capables de s’adapter
à un environnement en mutation. En réalité, les électroniciens eux-mêmes n’ont
qu’une connaissance très superficielle des équipements qui apparaissent sur le
marché à l’époque mais pour beaucoup, quelques éléments de formation et les
capacités d’adaptation feront le reste : il est notoire, par exemple, que
parmi les techniciens d’exploitation recrutés par Canal Plus, au moment du lancement
de la chaine en novembre 1984, très peu avaient une expérience significative du
métier et des nouveaux équipements qu’ils allaient utiliser. Qui connaissait en
effet l’Abekas A51 ou le mélangeur GVG300, voire le magnétoscope Sony BVH
2000 ? Personne ne pouvait se targuer d’une expérience d’opérateur sur les
commandes de voies caméra Ikegami HL79…
Une chose est
sûre : rester en dehors de ce microcosme technique, au tournant de la
décennie, signifie qu’on n’aura pas accès aux nouveaux équipements qui
apparaissent sur le marché, soit parce qu’on n’en a pas les moyens, soit parce
que les connaissances techniques font défaut.
Rôle de
l’ordinateur graphique :
L’apparition du
PC et du Mac, les possibilités graphiques de ces machines à mesure que le
matériel devient plus performant, le développement de logiciels spécialisés
mais, plus encore, celui de langages de programmation plus accessibles à des
artistes qui ne seraient pas des programmeurs professionnels, expliquent en
partie le passage progressif de l’art vidéo analogique à l’art numérique. Il y
a d’autre part le coût de plus en plus élevé de la production audiovisuelle
(voir le paragraphe précédent). L’ordinateur personnel devient alors une
alternative aux équipements vidéo traditionnels, tout en introduisant des
logiques nouvelles, de plus en plus éloignées de celles en usage jusque-là.
Autres
équipements emblématiques de l’époque « pré-digital » (et même après) :
-
Le VTR ou enregistreur vidéo sur bandes,
puis sur cassettes (voir supra) et son complément de l’époque
analogique :
-
Le TBC (Time Base Corrector) :
élément indispensable dès lors que l’on songe à relier des appareils entre eux
et à réaliser un système de traitement d’images. Le TBC est à l’origine conçu
pour aligner la base de temps d’un magnétoscope sur celle des autres
équipements en post-production. En vidéo composite ceci était particulièrement
important lorsqu’on sait qu’une erreur de phase de 5 degrés sur une
sous-porteuse couleur à 3.58 MHz (en NTSC donc) est déjà visible à l’œil.
-
Le générateur de signaux de synchronisation
qui fournit le « black burst » servant à aligner tous les équipements
d’une régie vidéo
-
Les « mémoires d’image » ou frame synchronizer. En 1980 cet
équipement fait son apparition dans les chaines de télévision et permet alors
de synchroniser sans difficulté des éléments vidéo extérieurs avec des sources
produites à l’intérieur des régies de diffusion et, par conséquent, la
commutation sur des mélangeurs en temps réel. De nos jours, les synchroniseurs
sont intégrés dans de nombreux équipements. Cette évolution a rendu obsolète le
concept même de genlock. Cependant,
des difficultés subsistent lorsqu’il s’agit d’aligner des sources audio et
vidéo.
-
Les DVE (Digital Video Effect) : on
devrait ajouter « Generator », mais l’usage de l’acronyme raccourci s’est
généralisé. Des machines telles que l’Abekas A60 vont amener les premiers
effets numériques en temps réel au sein des régies vidéo. Les transitions
réalisées à l’aide de ces machines vont devenir omniprésentes dans l’habillage
de la plupart des émissions de télévision du début des années 1980.
L’époque qui s’étend de
la fin des années 1970 au début des années 1990 est cependant celle de
l’hybridation. Les équipements numériques sont désormais présents partout sous
forme de consoles spécialisées (Paint Box, Character Generator, consoles de
montage type BVE, etc.) mais le système est encore analogique : les
entrées et sorties, le codage, l’enregistrement et la diffusion…
Les impasses et
les échecs : vie et mort des techniques…
L’enregistrement
sur disques optiques : cette technologie n’est pas tout à fait récente,
puisqu’on peut remonter jusqu’à Georges Demeny qui avait breveté un
« phonoscope » qui projetait des images issues des
chronophotographies sur un disque en verre. Cependant, ce sont les
développements modernes de l’électronique qui vont permettre le développement
de cette technologie.
Un cas particulièrement
intéressant : le vidéodisque interactif. Cette technologie a constitué la
première tentative de rapprochement entre l’image, le son et l’informatique. Sur
ce dispositif, l’image et le son sont stockés sur un disque laser de 12 pouces.
Le lecteur de vidéodisque est connecté à un PC qui se charge de piloter la
machine et d’offrir, par logiciel, les commandes interactives.
La diffusion de
l’informatique avec les PC fait naitre l’idée de l’interactivité, qui devient
un concept clé de l’imaginaire technologique du début des années 1980. On peut
ainsi se référer aux recherches entreprises à l’époque par le MIT au sein de
l’Architecture Machine Group. Un article de Richard A. Bolt, qui faisait partie
de l’équipe du MIT, fait le point sur la question : « Les images
interactives », La Recherche,
Spécial « La Révolution des Images », n° 144 (1983).
[1] Pour paraphraser Lucien Febvre :
« Annales
d’histoire économique et sociale : revue trimestrielle / directeurs : Marc
Bloch, Lucien Febvre », n°36, Gallica, 1935. p.531-532.
[2] Windows, Linux ou Mac OS :
je considère qu’il s’agit de systèmes d’exploitation qui tournent sur des
ordinateurs personnels (Personal Computer)
[3] Jacques Guillerme et Jan
Sebestik : « Les commencements de la technologie », Thalès, vol. 12, 1968, p. 44
[4][4] Pour de plus amples
développements voir : Benoît Turqutey,
Inventer le cinéma. Épistémologie : problèmes, machines, p. 28, L’Âge
d’Homme, 2014.
[5] B. Turquety, op. cit. p. 79.
[6] Lev Manovich, Software takes command, New York London,
Bloomsbury, 2014.
[7] Sigfried Giedion, Mechanization takes command, Oxford
University Press, 1948.
[8] Jussi PARIKKA :
« Combien d’archéologies des média ? », MCD Magazine des Cultures Digitales, pp. 10 – 13, N° 75 (2014).
[9] Il faut remarquer en effet que dans
de nombreux pays, y compris dans les démocraties occidentales, la télévision
est restée longtemps une affaire d’Etat. La France, par exemple, a attendu les
années 1980 pour voir apparaitre des réseaux de télévision privée sur son sol. Cela
est dû sans doute au caractère particulier de ce médium qui tend à supplanter
rapidement tous les autres, mais qui permet aussi aux gouvernants de
s’introduire dans le foyer de n’importe quel citoyen.
[10] Si l’on excepte les formations
effectuées au sein d’entreprises publiques telles que la SFP ou les chaines de
télévision.
[11] Source : Science et Vie
Micro, N°72, Mai 1990
[12] « Vidéo », dirigé par
Raymond Bellour et Anne-Marie Duguet, Communications
N° 48, 1988.
[13] « Michel
Jaffrenou travailler avec le temps », Artpress Spécial Nouvelles
Technologies, N° 12, 1991.
[14] Lev Manovich, op. cit., p. 92.
[15] Lev MANOVICH, Le Langage des Nouveaux Médias, pp. 266
– 302, Les Presses du Réel (2010)
Aucun commentaire:
Enregistrer un commentaire