Normalisation & Création

Gérard Pelé

Résumé

La question posée par cet article est celle de l’influence de la normalisation sur la production audiovisuelle. En effet, dans l’actuel contexte de sa numérisation, qui ne s’affranchit de la prolifération des méthodes de captation, de description et de restitution qu’au prix de nombreuses acrobaties et de bricolages plus ou moins contrôlés, les progrès de son industrialisation, et donc de sa productivité, reposent objectivement sur la définition et l’adoption de normes stables et « universelles » afin de libérer les créateurs du souci de la gestion des paramètres « de bas niveau ». Ainsi, les nouveaux « standards » permettent de s’assurer que les choix effectués aux différentes étapes de la confection de ces objets garantissent leur transmission fidèle, et leur promotion repose sur l’argument d’une amélioration de la « qualité » globale des programmes diffusés. Mais quelle est l’incidence d’un standard sur la création ? Et sur la réception ? N’y aurait-il pas dans toute norme, justifiée généralement par un discours technoscientifique d’apparence objective, une esthétique sous-jacente ?

Mots-clés

Norme ; Standard ; Industrie ; Audiovisuel ; Esthétique ; Études de la culture.

Introduction

Le Pôle de compétitivité Cap Digital, un groupement d’organismes publics et privés labellisé par le ministère de la recherche depuis 2005 avec pour mission de certifier des projets de « R&D » en matière d’innovation numérique, a soutenu le développement d’un nouveau standard pour la « cohérence et la continuité de la perception » à destination des industries audiovisuelles proposé en 2007 par l’ENS Louis-Lumière en collaboration avec la société Mikros Image. Les résultats de ces travaux dirigés à l’ENS Louis-Lumière par Alain Sarlat ont été présentés le 3 novembre 2011 sous le titre : Le fabuleux destin de la couleur. Il s’agit de la définition d’un nouvel espace coloré basé sur la norme ACES RGB de l’Academy of Motion Picture Arts and Sciences et de l’implémentation de procédures de calibration d’appareils inspirées par ce modèle.

Il faut bien sûr porter au crédit de cette démarche qu’elle a répondu à son cahier des charges, c’est-à-dire l’extension de la palette de couleurs reproductibles et le développement de logiciels permettant de s’assurer que les choix effectués aux différentes étapes de la production d’images fixes ou animées soient fidèlement transmis aux étapes suivantes, avec, pour finalité revendiquée, d’améliorer la qualité globale des programmes diffusés. En effet, dans l’actuel contexte de numérisation de l’ensemble de la production audiovisuelle, qui ne s’affranchit de la prolifération des méthodes de captation, de description et de restitution qu’au prix de nombreuses acrobaties et de bricolages plus ou moins contrôlés, les progrès de son industrialisation, et donc de sa productivité, reposent objectivement sur la définition et l’adoption de normes stables et « universelles » afin de libérer les créateurs du souci de la gestion des paramètres « de bas niveau ».

Cependant, le terme « qualité » ne désigne ici qu’un ensemble de critères relevant de la psychophysique de la perception, et non ceux qui confèrent à l’objet qui a été fabriqué dans le respect de ces normes le statut d’œuvre, voire celui d’œuvre d’art. Par ailleurs, les créateurs n’attendent pas forcément ces normes pour produire leurs œuvres, et même s’en affranchissent volontiers quand elles entravent leurs projets. Quelle est alors l’incidence d’un standard sur la création ? Et sur la réception ? N’y aurait-il pas dans toute norme, justifiée généralement par un discours technoscientifique d’apparence objective, une esthétique sous-jacente ?

Cohérence et continuité

Pour ne pas aborder directement la question de la norme, on peut en premier lieu interroger les termes employés pour décrire le projet « cohérence et continuité de la perception ». Cette formule comporte plusieurs présupposés qui sont, d’ailleurs, encore plus enfouis dans celle qui a été employée dans la conférence prononcée en 2011 : « cohérence et continuité colorimétrique dans la chaîne de production numérique… » Il n’est pas douteux que tous ces travaux ont été faits en vue de la réception des œuvres cinématographiques, mais, puisque notre perception est capable de construire dans sa machinerie neuronale un « monde » cohérent à partir de stimuli qui n’ont en eux-mêmes aucun sens, et à peu près dans toutes les situations, pourquoi faudrait-il se préoccuper de cohérence ou de continuité au sujet des artefacts de la production audiovisuelle dans laquelle elles s’inscrivent ?

C’est que le codage indifférencié de la numérisation a réactivé un sentiment qui était évoqué par Michel Foucault, dans Les Mots et les Choses, quand il faisait état d’un malaise provoqué par le soupçon qu’un désordre pire que celui de l’incongru pourrait exister : « ce serait le désordre qui fait scintiller les fragments d’un grand nombre d’ordres possibles dans la dimension, sans loi ni géométrie, de l’hétéroclite. » (Foucault, 1966, p. 7-9) Dans le texte de Borges auquel il faisait référence, citant lui-même « une certaine encyclopédie chinoise », les « sirènes » coexistent avec les « chiens en liberté » de même que tout animal qui peut être « dessiné avec un pinceau très fin en poils de chameau » par la seule vertu d’un système de signes assemblés en mots. Dans l’alphabet de l’ordinateur, l’ensemble des choses perceptibles, ou non, par nos sens ainsi tous les systèmes de signes sont mis sur le même plan, ramenés à des suites de 0 et de 1. Le nombre d’ordres possibles de cette double opération – échantillonnage et quantification – fait vaciller notre entendement et il est donc bien utile de le rassurer par la promesse d’une cohérence intrinsèque audit codage.

Ainsi, le premier présupposé des deux formulations est celui d’une analogie entre nos schémas perceptifs et les dispositifs de représentation. Il en résulte que l’imitation des premiers par les seconds serait une solution efficiente à condition de s’en tenir au niveau le plus élémentaire du langage, là où toutes les contradictions de l’expérience se résolvent en une unique alternative binaire. Et si la numérisation de l’image et du son ont, au début, ressuscité un vieux débat sur la possibilité de simuler le continu par le discontinu, cela a très vite été résolu par le progrès des technologies qui ont permis d’augmenter la résolution spatiale et temporelle des signaux censés représenter « les choses » jusqu’à excéder la limite perceptible de leur fractionnement.

Mais en confiant à ce niveau de description du visible le soin de résoudre la « cohérence perceptive », on n’a fait qu’éluder la question poïétique : serais-je plus avancé quand je serais assuré que les couleurs perçues sur le plateau de tournage seront fidèlement transmises au long de la chaîne de traitement des images ? Et d’abord, qu’est-ce que cela veut dire ? Que l’émotion que je ressens pourrait être communiquée sans altération à mon spectateur ? N’est-il pas toujours l’autre, que je dois accepter sans me laisser piéger par l’illusion d’un hypothétique autre soi-même ?

Un deuxième présupposé résulte de l’association des termes « cohérence » et « continuité » car un seul de ces substantifs eût suffi pour désigner l’intention, fort louable au demeurant, de disposer d’un unique espace de description des couleurs et des procédures à même de calibrer l’appareillage auquel est confié leur traitement. Sans doute a-t-on voulu de cette manière insister sur les avantages potentiels de la démarche avec un procédé rhétorique somme toute très répandu, mais, sans le vouloir nécessairement, on a introduit une relation de corrélation entre ces mots car les synonymes ne sont jamais parfaits. Ainsi, deux possibilités se présentent : soit la continuité dépendrait de la cohérence, soit, à l’inverse, c’est la cohérence qui serait, en quelque sorte, garantie par la continuité.

S’il est difficile de trancher entre ces deux options, on peut néanmoins suivre la voie ouverte avec la remarque selon laquelle la numérisation aurait suscité quelques doutes sur ses capacités descriptives de l’analogique des fonctions continues avant de parvenir à leur niveau « atomique », indécelable, après reconversion, par nos organes sensoriels. À partir du moment où ce stade a été atteint, le « nombre » a pu être réinvesti dans sa fonction de « chiffrage » du monde, comme cela avait été le cas dans l’Antiquité avec, notamment, Pythagore puis Platon. Autrement dit, dans la tendance asymptotique de la numérisation à imiter le continu perceptif, l’informatique, cohérente par construction et dont la logique ne saurait être mise en défaut, pourrait accomplir le projet de la première cybernétique visant une « philosophie de l’esprit sans sujet », et ce, sans menacer la créativité « naturelle ».

Il reste à examiner les termes « cohérence » et « continuité » pour eux-mêmes car il faut admettre, une fois encore, qu’un titre moins connoté eût pu être choisi, par exemple : « calibrage colorimétrique standardisé pour la chaîne de production numérique ». Sans doute eût-il été moins évocateur que celui qui n’aurait référé qu’à la perception, et encore moins que celui qui aurait relié la perception à la technologie, mais une formule moins littéraire n’aurait coupé court à l’herméneutique qu’au prix, il est vrai, d’un renoncement de leurs auteurs à leur propre désir de s’inscrire dans le grand mouvement de la connaissance et de l’art.

On remarquera par exemple que la notion de cohérence, appliquée aux relations entre phénomène, représentation et perception, suggère l’idée d’harmonie, c’est-à-dire d’un principe général de la Nature, d’une nature homogène, harmonique, tutélaire, susceptible, en effet, d’effacer toutes les hostilités, toutes les singularités, toutes les idioties du réel. On pourrait bien sûr reprocher à cette interprétation qu’elle surdétermine un terme qui, dans son usage scientifique, a été purgé de ses connotations, de ses dénotations comme de ses étymologies, mais le redoublement qui apparaît dans l’expression « cohérence et continuité » doit nous dissuader de le considérer comme entièrement détaché de ce halo de significations.

Comment, de la même manière, ne pas évoquer à partir de la notion de continuité les idées de consistance, de substance et, finalement, d’essence ? C’est donc bien l’évocation d’une perfection, supposément celle des phénomènes, de la perception et de la création « naturelle », qui est visée au travers de leur appareillage. Le titre choisi pour la présentation publique des travaux, Le fabuleux destin de la couleur, vient d’ailleurs confirmer cette impression en singeant maladroitement celui d’un film devenu « culte » presque dès sa sortie en 2001, et assorti de très nombreuses récompenses et nominations, dont treize aux Césars, et cinq aux Oscars. C’est l’amalgame idéal entre cohérence, continuité et « qualité ».

La norme et les normes

En 2012 il existait vingt-six organismes de normalisation internationaux, dont les plus connus sont IEEE, ISO, UIT, SI ; six instituts européens pour la normalisation, la standardisation, la logistique ; près de six cents officines de normalisation dans différents secteurs d’activité aux États-Unis ; vingt-neuf organisations pour la coordination de la normalisation dans les pays européens, dont DIN pour l’Allemagne, Afnor pour la France… Et ce sont des milliers de règles, directives et recommandations qui sont publiées chaque année en vertu de cette formidable fabrique. Aussi peut-on affirmer que, s’il y a une activité qui ne nous fait pas défaut dans le monde actuel, c’est bien la normalisation.

Et on ne peut que se réjouir qu’il y ait des règles qui reflètent nos usages conformément à une moyenne de référence ou visant à simplifier nos existences : l’uniformisation et la mise en commun d’un petit nombre de règles dans le domaine juridique qui administre nos existences auraient comme corollaire leur parfaite connaissance par tous et pour effet heureux leur adoption par une sorte d’adhésion majoritaire ; dans le registre de la production de toutes les choses qui nous sont indispensables, comme l’eau ou la nourriture, ou seulement agréables, comme la musique ou le cinéma, nous serions assurés aussi bien de leur conformité et reproductibilité dans tous les contextes que de simplement pouvoir en jouir en raison de l’adoption d’un format unique de codage ou de modes d’emploi harmonisés.

Ce serait assurément un monde apaisé que cet espace complètement normalisé qui constitue l’horizon et la promesse des organismes dont c’est l’activité exclusive. Nous n’aurions plus à nous demander quelle règle doit être respectée au-delà d’une frontière dont les contours peuvent être assez flous, par exemple la partition entre espaces privés et publics, nous n’aurions plus à nous soucier des « obstacles à la jouissance » puisque nous serions tous assurés de l’obtenir, exactement dans les mêmes conditions, de même qualité et en même quantité, sur les étalages des hypermarchés et autres bazars.

Mais sommes-nous certains de désirer cette communauté, cette identité d’expérience qui résulterait d’une complète adhésion à des règles absolues, pour ainsi dire totales ? La mémoire des régimes qui ont tenté d’imposer cette planification et ce gouvernement des existences par la normalisation et des règles qui ne s’appliquaient pas, cela va de soi, à leurs dirigeants, ne nous encourage pas à suivre cette voie et, d’ailleurs, l’affairement actuel de standardisation s’est largement détaché de la recherche de la norme assujettie à une moyenne idéale au profit du développement d’une pluralité des normes sous condition d’un progrès technologique proliférant, par définition même de la notion de progrès.

De fait, les entreprises de normalisation, bien qu’elles soient, pour leur majorité, presque entièrement financées par l’impôt, ont fait de cette occupation une quasi-industrie. C’est devenu une activité pour elle-même, et se déployant dans les mêmes conditions qui permettent à toute industrie de simplement exister, c’est-à-dire sous contrainte d’innovation. Aucune industrie ne peut survivre sans prospérer, sans renouveler en permanence ses produits. Et les activités de normalisation, qu’elles soient privées ou, comme toutes celles qui relèvent du financement public, soumises au productivisme d’état, ont dû faire preuve d’inventivité pour ne pas disparaître, selon la règle concurrentielle du « marché » ou celle d’une gestion des « services » qui tend de plus en plus à appliquer les mêmes méthodes de management que l’entreprise commerciale – avec toutefois cette nuance que, dans le service public, existe un énorme corps bureaucratique qui, parce qu’il y prend sa part de profits, a tout intérêt à maintenir certains métiers, aussi peu utiles qu’ils puissent être.

Mais puisque, comme cela a été suggéré, il n’est probablement pas souhaitable que ces organismes privés ou publics[1] parviennent à s’entendre pour faire converger en règles simples, universelles et stables la production pléthorique de normes et de standards, tous qualifiés « d’internationaux » comme de bien entendu, il faudrait accepter, et même encourager la production de nouvelles normes. Il faudrait d’autant plus soutenir cette entreprise qu’elle nous préserverait de l’uniformisation du sujet humain lui-même, autrement dit de sa quasi-disparition en tant que sujet, en tant qu’individu, entraînant au passage la négation de l’altérité concrète qui est la seule jouissance insoluble dans la distraction des loisirs. Toute parasitaire qu’elle soit en raison de la quantité considérable de ressources qu’elle consomme, cette industrie devrait donc être considérée comme étant en symbiose avec les sociétés où elle puise ses ressources, parce que, en retour, elle leur permettrait de rester en mouvement, de ne pas s’effondrer dans l’atonie paradisiaque d’un monde sans conflit.

Confrontées au choix entre « la » norme qui collectivise nos esprits et « les » normes qui les occupent et les distraient, nos sociétés ont majoritairement adopté la seconde option, bien que quelques autres tentent actuellement de réhabiliter et de promouvoir la première, notamment par l’administration de divers catéchismes. Mais ni les unes ni les autres n’envisagent le « tiers exclu » de ce qui n’a jamais été présenté, effectivement, que comme un dilemme. Ce tiers exclu serait « l’anormie », néologisme proposé par dérivation étymologique de l’anomie qui, déjà, renvoyait à la notion d’irrégularité (ana, privatif, et nome, loi). Pour donner à l’anormalité un sens moins pathologiquement connoté, « l’anormie » serait en matière de règlements ce que l’anomie est en matière de valeurs : à la disparition des valeurs communes à une société correspondrait la disparition des règles qui, du simple fait de leur prolifération, en trahissent l’esprit et falsifient sa cause finale dans un individualisme qui n’est que la perversion destructive de l’individuation constitutive de tout être vivant.

Les normes, en pratique

On peut désirer la normalisation et la standardisation, mais, ni plus ni moins, que la tenue d’un engagement. En d’autres termes, comme toute croyance serait anéantie par la réalisation de sa promesse, toute démarche normative se dissoudrait dans l’objectivation de son ouvrage… Une fois son but atteint, nous pourrions bien être, comme au paradis, en bien plus triste compagnie qu’aux enfers. Pour cette raison, il nous importe plus de croire en quelque chose – ou en quelqu’un – que d’en faire l’épreuve. nous avons l’intuition qu’elle pourrait bien être décevante. Et, dans cette servitude assumée, nous ne sommes pas toujours les dupes de ceux qui en certifient l’existence quand nous voyons, parfois, qu’ils ne sont pas eux-mêmes trompés par leurs affirmations : on peut encore faire semblant. Enfin, même si l’on est sûr de sa croyance et que l’on envisage sérieusement sa noyade dans le « grand tout », on ne jouit pas moins, en attendant cette issue, de la diversité et de la confusion du monde, des incompatibilités, des conflits, et de toute perversion, créative cette fois, d’un ordre dont nous savons, au fond, qu’il n’a pas d’autre valeur que d’avoir été produit par notre imagination.

Mais peut-être est-il préférable de prendre un exemple pour illustrer l’examen du concept de norme, en précisant que cette proposition ne saurait prétendre à faire la preuve des thèses avancées, mais seulement d’en éclairer certains aspects. Ainsi, le choix des normes MPEG présentées dans cette étude, plutôt destinées à régir la création et la réception audiovisuelle prise en un sens générique, permet de contourner l’inévitable argumentation associée à un sentiment « d’exceptionnalité » de la part des « fabuleux » professionnels du Cinéma – avec majuscule. L’ensemble des normes MPEG est, depuis 1988, issu des travaux du Moving Picture Experts Group, lié aux organismes ISO et CEI, qui ont pour but de faire des propositions en matière de codage des médias, de codage des scènes, de codage de la description des médias et de « support système ».

MPEG-1 concernait le stockage audio et vidéo sur support CD ; MPEG-2 le codage et la compression pour la télévision numérique ; MPEG-3 son extension à la TV-HD ; MPEG-4 le codage des objets audiovisuels incluant la protection de la copie ; MPEG-7 une norme de description pour les contenus multimédias, avec un langage associé ; MPEG-21 un standard proposant une architecture pour « l’interopérabilité » ; enfin, MPEG-A était en cours de définition en 2012, avec des finalités encore mal identifiées. Ce qui peut déjà être remarqué, en dehors du nombre de ces standards et d’une certaine accélération de leur production (1, 2, 3, 4, 7, 21, A), c’est leur ambition qui, se limitant au départ au codage sur un support bien défini, concerne tout type de support à partir de la version 4, et leur usage à partir de la version 7 qui, en 2001, a intégré les principes de gestion des bases de données à la norme MPEG-4 conçue, pour sa part, comme un standard multimédia concernant le stockage, l’intégration et la diffusion des éléments audiovisuels avec un type de codage « par le contenu » inspiré des techniques en usage dans les environnements de développement pour les programmes interactifs, par exemple les jeux vidéo. Pour parachever cette intrusion dans la réception des programmes audiovisuels, la norme MPEG-21 a proposé en 2003 une automatisation des procédures de la précédente pour la commercialisation, la location et l’utilisation de contenus de tous types, incluant une protection juridique « complète »… On attend avec impatience les inventions permises par la norme MPEG-A.

Pour mieux apprécier les caractéristiques de ces innovations, il est utile d’effectuer un retour en arrière dans l’histoire des technologies audiovisuelles. Dans les années 1970, le son de la cassette audio, dont l’usage s’était considérablement accru avec l’invention du Walkman par Sony, était inscrit sur au moins trois matériaux magnétiques, avec plusieurs profils de filtrage et d’intensité, et parfois des traitements destinés à en réduire le bruit de fond. Mais les utilisateurs étaient bien plus motivés par la possibilité d’enregistrement sur ce support, qui permettait l’échange de la musique pour un coût modique, que par la qualité intrinsèque, modeste dans le meilleur des cas et parfois très dégradée au regard de l’orthodoxie « audiophile », de la restitution : encore en 1982, Jean-Christophe Averty, dans son émission Les Cinglés du music-hall, pouvait dire « à vos cassettes ! » sur une radio de service public. Ce n’est qu’un peu plus tard qu’ont émergé l’idée de piratage, par la copie des « œuvres », et celle d’une « contre-offensive » qui a débouché sur une taxe appliquée à l’achat de chaque cassette. Nonobstant, tout un chacun pouvait enregistrer, copier et partager des cassettes audio, et en disposer comme d’une photographie, en couleur ou en noir et blanc, de petit ou de grand format, récente ou ancienne, étant certain de pouvoir en jouir quelle que soit son origine et avec n’importe quel appareil. Le CD audio a « heureusement » mis fin à ce gâchis commercial en imposant un encodage numérique strictement encadré et en interdisant, pour un temps, l’enregistrement et la copie… avant que ne soient commercialisés les appareils qui permettaient de le faire, puis inventé le « marquage » des enregistrements légaux qui en empêchait l’emploi.

Autre exemple, concernant la télévision : là encore, avec la vidéocassette, on a vu s’instituer dans les années 1980 un phénomène d’échange très actif qui, bien qu’il n’aurait jamais, pour des raisons techniques et économiques, pu atteindre en quantité ce qui s’est produit au début des années 2000 avec le développement d’Internet et des plateformes pear to pear, était modélisé sur le même principe que celui des cassettes audio, c’est-à-dire sur une relation réelle de personne à personne, ce qui veut dire qu’on n’échangeait pas seulement des contenus audiovisuels, mais aussi des goûts et leurs savoirs associés, et, avant tout, qu’on proposait sa présence concrète auprès de l’autre. L’échange de cassettes pouvait même n’être qu’un prétexte à la rencontre et à des plaisirs autrement plus consistants que leur visionnage. Mais avant même d’atteindre ces jouissances, la télévision analogique offrait déjà, à cette époque, des spectacles qui ont disparu de nos écrans : en tout lieu, avec un antique récepteur et une antenne approximative, regarder quelque chef-d’œuvre du cinéma comme si l’on était naufragé sur une île ou perdu dans l’espace ; ou au contraire se fondre dans la nuit avec la « neige » à l’écran lorsque les émetteurs étaient éteints ; et encore regarder le film pornographique du samedi soir sur Canal+ en mode « brouillé », expérience qui avait de nombreux adeptes, qui, soit dit en passant, n’étaient nullement entravés dans un plaisir qui pouvait même être favorisé par le brouillage, cette station n’émettant de toute façon « en clair » que pour l’inepte réclame de ses annonceurs et de sa propre entreprise.

On peut inférer, à partir de ces expériences des cassettes enregistrables et échangeables, de la réception télévisuelle et, avant elle, radiophonique, que si la pornographie se définit, même très partiellement, par une pulsion « scopique » qui complète le projet panoptique de Jeremy Bentham, elle ne s’accomplit pas seulement par ses contenus, dans l’anatomie d’un « rapport sexuel » – d’ailleurs pure invention d’après Jacques Lacan – disséqué jusqu’au retournement des chairs. Les standards qui garantissent sa transmission, la spécialisation et la segmentation qui détruisent sa part d’imaginaire, sont complétés par l’économie des médias qui en sont les supports : la pornographie est portée à son comble quand, non seulement on est assuré de réceptionner l’entièreté de son contenu, ce qui détruit toute expérience « singulière », mais qu’en plus il faut s’acquitter d’un droit – la gratuité étant un leurre – pour en obtenir la jouissance. Cette pornographie « réifiante » par la normalisation du rapport commercial entre le producteur et le consommateur est une forme de prostitution double particulièrement destructrice de l’individu. Son modèle est la marchandisation (Pierre Klossowski, 1994) méticuleuse des prestations des différentes « parties » qui exclut toute relation humaine – y compris dans la version cynique des anciens grecs, plus obscène que pornographique – et tout érotisme puisque rien n’y peut être transgressé que virtuellement.

Le complexe de la création

En suivant les recommandations des normes MPEG à partir de la version quatre, les créateurs des œuvres cinématographiques, et tous leurs contributeurs, pourraient se sentir dépossédés de certaines prérogatives dont ils avaient fait l’emblème de leur statut « d’artiste ». En effet, pour l’image comme pour le son, il s’agit de capter l’information la plus complète possible, par tous les moyens disponibles, pour préserver le maximum de potentialités dans les étapes ultérieures. Cela a pu commencer avec l’utilisation de plusieurs caméras, de plusieurs microphones, ou avec des technologies susceptibles de neutraliser certaines contingences d’un tournage, comme la lumière « naturelle » ou le bruit d’ambiance, mais, dans le cadre de cette norme, chaque élément constitutif d’une scène audiovisuelle doit être strictement séparé, rendu indépendant des autres, dans un modèle qui rejoint celui de la « programmation par objet » des jeux vidéo.

Concrètement, chaque objet – acteur, élément de décor ou source sonore – est capté séparément, enregistré « brut » et associé à un certain nombre de données qui tracent, par exemple, sa position et ses mouvements dans l’espace. Comme il est impossible de décrire par cette méthode la totalité des éléments qui entrent dans la composition d’une scène, on choisit en général ceux qui ont un rôle actif et tout le reste est considéré comme du décor. Dans les étapes ultérieures ils pourront être assemblés, montés et mixés, en suivant les instructions contenues dans les données associées (méta data) et selon un scénario qui précise les directives qui ne sont pas spécifiées dans ces données. Il est évident que, pour qu’un tel dispositif de confection des films soit efficient, il est nécessaire d’instaurer des règles pour la captation et l’encodage des signaux, et d’obtenir qu’elles soient strictement respectées : il en va du maintien de « l’interopérabilité » entre tous les systèmes et les appareils impliqués dans le dispositif, et aussi d’un principe de « division du travail » héritière du fordisme qui offre toute la souplesse nécessaire à sa facture et à sa productivité en faisant en sorte que chaque participant au projet n’agisse que sur une petite partie de sa production, comme un ouvrier sur une chaîne. Cela se traduit concrètement par l’émergence de nouveaux métiers comme « ingénieur workflow » ou « chef de projet » pour organiser la chaîne de production audiovisuelle et « manager » ses employés – l’ENS Louis-Lumière a déposé en 2017 un projet de création de cette « spécialité ».

Or, cette planification de la fabrique des images n’a fait qu’adapter, dans le contexte et avec les méthodes de l’industrie contemporaine, un modèle plus ancien dont l’Instruction sur la manière de mesurer d’Albrecht Dürer (1525, p. 197-198) donnait déjà une bonne description :

Place un luth ou tout autre objet de ton choix, aussi éloigné du châssis que tu veux mais immobile pendant tout le temps que tu l’utilises. Ton compagnon déplacera la pointe de point en point sur le luth. Chaque fois qu’il s’arrêtera en un point en tendant le fil, déplace les deux fils du châssis, tends-les et croise-les sur le long fil. Fixe leurs extrémités avec de la cire sur le châssis et demande à ton apprenti de relâcher la tension du long fil. Ensuite, ferme le portillon et marque le point d’intersection des deux fils sur le panneau. Ensuite ouvre de nouveau le portillon et continue avec un autre point, de point en point, jusqu’à ce que le luth entier ait été reproduit en pointillé sur le panneau. Relie tous ces points et tu verras ce qui en résulte.

Il est bien question, dans ce passage, d’objectiver une scène au moyen de la description méticuleuse et réglée par un algorithme des éléments qui entrent dans sa composition, ce qui suppose en effet une standardisation de l’appareillage et un strict respect de la procédure par les exécutants du programme. Et dans ce rapprochement avec une période qui annonce notre modernité, on peut voir que tous les ingrédients qui ont nourri son progrès sont déjà en place : la perspective « monocentrée » n’est pas seulement une « forme symbolique », comme l’affirme Erwin Panofsky en la comparant à d’autres systèmes de représentation, mais aussi le lieu et le moment à partir desquels s’amorce la mutation de l’artiste en entrepreneur, de l’atelier en manufacture puis en usine, et de la création en production. Enfin, toute distinction entre les objets dont on n’a capté qu’un aspect mais qui ont encore un référent dans le réel et ceux qui sont synthétisés est abolie, et le spectateur est invité à embrasser une « réalité » coulée dans le même moule jusqu’à se convaincre que le monde extérieur est le simple prolongement de celui qu’il découvre au cinéma qui, en effet, le reproduit de mieux en mieux au plan perceptif (Horkheimer et Adorno, 1944-1947).

Donc, ce qu’il faut admettre, c’est que les normes ne sont que les produits de cette évolution qui commence à atteindre le domaine de la création cinématographique dans le même mouvement qui a industrialisé la fabrique des objets qui forment le cadre de nos vies. Il est également nécessaire de comprendre que les fonctionnalités offertes par les normes actuelles, fonctionnalités qui, il faut y insister, sont leur véritable finalité et, par conséquent, en motivent aussi bien l’élaboration que la multiplication, s’inscrivent dans la logique d’une culture qui place le consommateur en position magistrale, mais infantilisé et flatté dans ses goûts et ses pulsions les plus faciles à satisfaire, comme avec la pornographie, et, en tant qu’ultime producteur de la richesse du petit nombre des oligarques, suprême responsable de sa servitude (Étienne de La Boétie, 1576).

Les fonctionnalités nouvelles qui sont évoquées se déduisent facilement de la méthode préconisée dans les normes MPEG pour l’encodage des signaux qui représentent les scènes à partir desquelles seront élaborés les films, ou tout autre programme audiovisuel. Puisque ses objets sont des éléments indépendants auxquels sont associés autant de données ajoutées et des scripts, des programmes en fait, on comprend que leur assemblage peut s’effectuer sans toucher aux signaux qui les décrivent, simplement en modifiant le jeu de données et d’instructions qui décrivent leurs comportements, et que ce mécanisme peut être appliqué au niveau des relations susceptibles d’influencer leurs évolutions, et encore au niveau supérieur de l’articulation entre les scènes.

 

Les différents intervenants de cette fabrique se verront confiés des tâches de captation, de compilation et d’indexation des données, de programmation, de conformation… Il en ira de la « libération de la création » qui était l’une des motivations affichées des travaux décrits en introduction comme de la « libération du travail » actuellement promue comme le parangon du progrès : la distribution d’un ensemble de besognes, interchangeables et, pour partie, effectuées à titre « gratuit », à une nouvelle classe de travailleurs au statut précaire. C’est au prix d’une adaptation des différents métiers de l’audiovisuel aux méthodes managériales des autres secteurs marchands que l’on espère parvenir à ce qui est présenté comme une innovation et une promesse de l’industrie audiovisuelle, à savoir l’individualisation dans la réception des produits de grande consommation[2] qui sera accomplie avec les dispositifs de « réalité virtuelle » et les technologies de l’interactivité. C’est, finalement, dans le domaine politique, le retournement honteux d’une « culture pour tous » (Jean Vilar, 1947) en une « culture pour chacun » (Frédéric Mitterrand, 2011) qui achève le processus de marchandisation du travail par celui de la jouissance.

 

Du fétichisme

Cette stratégie avait très bien été repérée par Theodor Adorno dans un texte qui anticipait l’évolution des pratiques culturelles dans leur tendance à se modéliser sur celles de l’industrie des biens matériels : « Comme il est nécessaire pour des raisons commerciales de dissimuler cette uniformité, on en vient à manipuler le goût et à donner une apparence individuelle à la culture officielle, le terrain que gagne cette dernière étant nécessairement proportionnel à la liquidation de l’individu à laquelle elle contribue. » (Adorno, 1938, p. 33-34). On pourrait aujourd’hui nuancer son propos, notamment l’emploi du terme « liquidation », sachant qu’il s’agit du premier texte qu’il a écrit à son arrivée aux États-Unis où il s’est trouvé confronté à un environnement différent de celui de sa formation, et dans un moment de son existence très déstabilisant qui ne résultait pas seulement de son émigration forcée mais aussi de la remise en question que cela lui imposait au regard de la hiérarchie des cultures qui était traditionnellement vécue dans la « vieille Europe ». Il faudrait alors examiner l’hypothèse que son aversion pour le jazz pourrait n’être pas sans rapport avec la notion de « standard » qui en est constitutive.

On sait néanmoins qu’il y a toujours eu des créateurs, peintres dans la période de la Renaissance et au-delà, puis photographes ou cinéastes, qui n’ont pas suivi « l’instruction » de Dürer et ont proposé des perspectives curvilignes, à multiples points de fuite, ou encore la déconstruction, notamment cubiste, qui ont expérimenté des appareils de prise de vue ou des procédés d’inscription du « réel » sur toutes sortes de supports et avec des traitements « non standards »… Et puis qu’il y a tout un pan de pratiques cinématographiques regroupées sous l’attribut générique « d’expérimentales » qui se sont développées à l’écart de l’idée même de normalisation (Noguez, 1979).

L’esthétique à laquelle il était fait allusion au début de ce texte s’incarne pleinement dans l’industrie culturelle et dans celle des normes qui l’accompagnent, en maintenant séparés le « réalisme des idées » et le « réalisme matérialiste ». Le premier a sa cause finale en toute entité ayant fonction démiurgique et se déploie dans une synthèse totale, autrement dit dans une « fable » excellemment désignée dans l’intitulé de la conférence sur la « cohérence et la continuité colorimétrique… » (Le fabuleux destin de la couleur) qui est le succédané adéquat pour ceux qui, craignant les conséquences du second, ne veulent pas supporter le tragique de toute existence, marquée par un « désordre qui fait scintiller les fragments d’un grand nombre d’ordres possibles dans la dimension, sans loi ni géométrie, de l’hétéroclite », faisant au passage chavirer la pensée rationnelle « en douceur ».

- Gérard Pelé

 

À propos de l'auteur

 

Gérard Pelé est professeur en esthétique et philosophie de l’art à l’ENS Louis-Lumière. Il a dirigé le programme transversal de recherche en Arts Sonores à l’Institut ACTE. Ses recherches portent sur l’étude des divers dispositifs avec lesquels la création et l’art envisagent l’émergence de pratiques hétérodoxes en questionnant les affects et les relations au corps qu’elles éveillent. Elles se prolongent avec l’étude de l’industrialisation de la production culturelle où sont redéfinis et administrés nos processus de subjectivation impliquant toutes modalités sensorielles. Il est l’auteur d’essais et d’ouvrages littéraires : Art, Informatique et Mimétisme ; Inesthétiques musicales au XXe siècle ; Études sur la perception auditive ; Le festin de l’ange ; Amouriner. 

Bibliographie

ADORNO, Theodor W. Le Caractère fétiche dans la musique et la régression de l’écoute [1938], traduction par Christophe David, Paris, Éditions Allia, 2003.

DÜRER, Albrecht. Instruction sur la manière de mesurer, traduction et présentation par Jeanine Bardy et Michel Van Peene, Paris, Flammarion, 1995. (Ouvrage original publié en 1525 sous le titre Unterweisung de Messung).

FOUCAULT, Michel. Les mots et les Choses : une archéologie des sciences humaines, Paris, Gallimard, Collection « Bibliothèque des sciences humaines », 1966.

HORKHEIMER, Max et ADORNO, Theodor W. La production industrielle de biens culturels [1944-1947]. Dans Dialectique de la raison, Paris, Gallimard, 1974.

KLOSSOWSKI, Pierre. La Monnaie vivante [1994], Paris, Payot & Rivages, 1997.

LA BOÉTIE, Étienne. Le discours de la servitude volontaire [1576], Paris, J. Vrin, 1981.

NOGUEZ, Dominique. Éloge du cinéma expérimental [1979]. Paris, Éditions du Centre Pompidou, 2010.

Notes

[1] Notons qu’on peut parfois indifféremment les considérer comme des officines de lobbying déguisées en bureaux d’études, tous plus ou moins à la solde des grands groupes internationaux investis dans l’industrie du divertissement avec les mêmes buts que dans celles de l’agroalimentaire ou de l’armement.

[2]  C’est de cette manière que l’industrie automobile a dissimulé l’uniformité de ses produits en proposant tout un jeu d’options, de couleurs, d’accessoires, pour que chaque consommateur ait l’impression de posséder quelque chose d’unique, de différent, adapté à sa propre personne.

 
 
 
 
 
 
 
 
 
 
  • Facebook - White Circle
  • YouTube - Cercle blanc