N°12 / Arts et industries

Art des systèmes de données : une esthétique critique des flux et des protocoles

Ying-Chun HUANG

Résumé

Cet article propose le concept d’« art des systèmes de données » pour qualifier les pratiques artistiques contemporaines qui font des flux de données, des algorithmes et des infrastructures numériques la matière même de l’œuvre. Contrairement à l’idée d’une dématérialisation de l’art, la matérialité se déplace vers les opérations computationnelles, les protocoles et les réseaux qui organisent la circulation des flux de données et leurs transformations. Cette matérialité opératoire se distingue des critiques de l’objet formulées au XXᵉ siècle, notamment via ses processus, ses concepts ou sa reproductibilité mécanique, en instaurant un régime où la forme dépend d’environnements techniques dynamiques.

L’analyse s’appuie sur les apports de la théorie des médias, de la philosophie de la technique et de l’écologie de l’information pour examiner la manière dont ces œuvres reconfigurent notre perception et les conditions de visibilité. « L’art des systèmes de données » met ainsi en évidence les opérations invisibles qui structurent l’expérience esthétique, qu’il s’agisse de la grammatisation du sensible au sens des techniques numériques, de la gouvernance algorithmique par les protocoles ou des enjeux géopolitiques des infrastructures numériques. Cette approche permet également d’interroger la tension entre standardisation industrielle et perturbation critique et de comprendre l’émergence de nouvelles formes esthétiques fondées sur la dynamique des flux computationnels.

Mots-clés

Plan de l'article

Télécharger l'article

Introduction : recontextualiser l'art à l'ère de l'industrie des données

Loin d’être un simple prolongement de la reproduction mécanique du XXᵉ siècle, l’essor de l’informatisation, de l’automatisation industrielle et de la prolifération massive des données constitue une transformation structurelle comparable à une nouvelle révolution technique. À la différence de la première révolution industrielle fondée sur la machine thermique et de la deuxième structurée autour de l’électricité, cette troisième révolution s’appuie sur le calcul, les réseaux et la circulation continue des données, modifiant en profondeur les conditions de création, de perception et de conservation des œuvres1. De fait, de plus en plus de productions artistiques contemporaines utilisent les données comme matériau, processus ou langage et semblent s’éloigner du régime classique de l’objet pour s’inscrire dans des logiques systémiques et interactives. Ces pratiques artistiques conduisent souvent à l’hypothèse d’une « dématérialisation » de l’art, où le support physique serait abandonné au profit de formes immatérielles.

Dans ce contexte, l’art numérique semble fréquemment associé à cette idée de dématérialisation. Pourtant, nous faisons l’hypothèse inverse : la matérialité ne disparaît pas, elle se déplace. La donnée, le code et le protocole constituent aujourd’hui une nouvelle matérialité opératoire, non pas visible comme l’objet traditionnel, mais agissant comme la condition technique même de l’existence des œuvres. Cette intuition trouve un appui théorique chez Thomas Nail, pour qui la donnée doit être pensée comme un flux cinématique, une entité définie par le mouvement plutôt que par une substance2. De même, Jussi Parikka montre que les infrastructures numériques, telles que les câbles, les serveurs et les centres de données, possèdent une matérialité géologique, énergétique et géopolitique, redéfinissant le rapport entre les systèmes médiatiques et leur inscription matérielle3.

Pour comprendre ce déplacement de la matérialité, nous inscrivons l’art des systèmes de données dans une histoire longue du décentrement de l’objet. Le XXᵉ siècle avait déjà ébranlé la centralité de l’objet artistique : le geste de Duchamp, la performance, le Process Art, le Land Art et l’Art conceptuel ont substitué à l’objet autonome le processus, la trace, l’idée ou l’action. Parallèlement, la reproductibilité mécanique analysée par Walter Benjamin a remis en question l’unicité de l’œuvre, faisant émerger un régime fondé sur la diffusion, la circulation et la réception. Cependant, malgré leur portée critique, ces transformations restaient inscrites dans des régimes mécaniques, linguistiques ou conceptuels. Elles ne prenaient pas encore en compte la logique computationnelle, où les opérations, les protocoles et les infrastructures organisent la visibilité, la stabilité ou la transformation des œuvres.

Cette histoire du décentrement de l’objet ouvre la voie à un tournant théorique décisif à la fin des années 1960. Dans ce contexte, le cadre théorique proposé par Jack Burnham en 1968 constitue un moment charnière4. Burnham comprend l’art comme un ensemble de systèmes, de rétroactions et de relations, replaçant l’œuvre dans son environnement technique. Cependant, cette approche systémique demeure encore pré-numérique : elle ne traite pas de la computation, de logique algorithmique ni de la manière dont les protocoles régissent désormais le fonctionnement des œuvres.

C’est pourquoi nous proposons la notion d’« art des systèmes de données » pour désigner les pratiques qui mobilisent non seulement des processus, mais directement des flux de données, des algorithmes, des protocoles de réseau et des architectures industrielles. Cette catégorie permet de distinguer les pratiques computationnelles des pratiques fondées sur l’usage d’outils numériques. L’œuvre ne se définit plus par un objet ni même par un concept, mais par des conditions techniques d’existence, inscrites dans un milieu computationnel gouverné par des opérations et des infrastructures. Ainsi, l’enjeu central n’est pas la disparition de la matérialité, mais la compréhension du déplacement de cette dernière vers des opérations computationnelles, des protocoles techniques et des infrastructures industrielles, opérant dans des registres techniques distincts mais conjointement impliqués dans l’existence des œuvres.

De l’objet au processus : un héritage non numérique

Bien que l’œuvre d’art numérique puisse évoquer une image virtuelle ou immatérielle, les expériences esthétiques fondées sur les données et les systèmes numériques ne sont pas les premières à contester la centralité de l’objet physique dans l’histoire de l’art. En effet, le tournant de l'art sans objet, où la création ne considère l'objet que comme un simple support, médium ou outil d'enregistrement5, est un phénomène qui débute au XXᵉ siècle et qui traverse une grande partie de l'art depuis.

L'origine de cette contestation remonte aux readymades de Marcel Duchamp (c. 1913-1917). Par le simple geste de sélection et de désignation, Duchamp a opéré la première remise en question systématique du rapport de l’art à l’objet : la valeur d’une œuvre n'est plus intrinsèque à sa matérialité ou au savoir-faire de l'artiste, mais repose sur la décision conceptuelle, le contexte institutionnel et économique. Ce changement de paradigme a transformé le rapport à l’œuvre, en redéfinissant l’objet exposé comme le support d’un processus conceptuel ou performatif, sans en annuler pour autant sa présence matérielle.

Suite à ce premier choc, deux lignées majeures se développent ensuite : d'une part, les Specific Objects théorisés par Donald Judd en 1965, qui refusent l'illusionnisme et la composition en faveur d'une réalité physique et spécifique. L'objet doit exister comme une « présence » autonome dans l'espace réel, une entité singulière, dépouillée de toute hiérarchie compositionnelle et de toute fonction symbolique représentationnelle ou narrative. Cette neutralité formelle revendiquée n’implique pas l’absence de toute signification, mais marque un déplacement du symbolique : celui-ci ne relève plus de la représentation ou de la narration, mais d’une logique matérielle et industrielle, liée à la rationalisation technique, à la standardisation des procédés et à l’affirmation d’un régime non illusionniste. D'autre part, les pratiques qui privilégient l'idée et l'action, comme Fluxus et l'Art Conceptuel, pour qui l'objet devient totalement subordonné au concept. C'est dans cette perspective, où la valeur de l'œuvre est extrinsèque à l’objet et dépendante des conditions de son énonciation, que s'est développée la notion d'objet contingent6.

Nous postulons ainsi que si l'art post-objet a décentré l'œuvre de la matière vers une présence spécifique ou une idée ou une action, l’art des systèmes de données opère un déplacement supplémentaire qui ne concerne plus seulement le statut de l’objet, mais les conditions techniques et computationnelles de son existence. Il déplace l’attention vers les protocoles, les opérations computationnelles et les infrastructures qui constituent désormais le milieu même où l’œuvre advient. Dans cette perspective, la question ne porte plus seulement sur la nature artistique de l’objet, mais sur les conditions opératoires qui rendent possible son apparition, ouvrant un champ esthétique structuré par le calcul, la donnée et les environnements industriels.

L'objet en crise : processus, trace et art au XXᵉ siècle

Dès la seconde moitié du XXᵉ siècle, de nombreux mouvements artistiques ont cherché à émanciper l'art de son statut d'objet physique, le transformant en une expérience ou une relation, prolongeant ainsi le geste de Duchamp et privilégiant la dimension du processus sur l'autonomie de l'objet spécifique défini par Judd. Cette dynamique marque une transition où l’œuvre cesse d’être définie par sa forme matérielle pour se constituer comme acte, situation ou protocole d’énonciation.

Cette première vague de décentrement vers le processus s’est manifestée par l'émergence des Happenings et du mouvement Fluxus, qui ont mis l'accent sur les actions éphémères et la participation du public, déplaçant l'œuvre du support matériel vers l'événementiel. Les protagonistes de ces pratiques prônaient le « brouillage de l'art et de la vie » (the blurring of art and life7), soulignant que la valeur artistique résidait dans l'action même et le contexte environnemental. Parallèlement, le Process Art8 a introduit une critique directe de l’objet fini par l’exploration des conditions et des forces physiques. Des artistes comme Robert Morris ont refusé les formes fixes pour privilégier l’aléatoire, la gravité et l'entropie, faisant de l'œuvre le résultat d’un processus matériel et temporel plutôt qu’une entité stable. Dans cette même logique, Richard Long a radicalisé la dimension de l'action et du temps : son œuvre A Line Made by Walking (1967) est une simple ligne créée en marchant dans l'herbe, où l'art réside dans l'acte de l'artiste, la temporalité de l'action et la fugacité de la trace.

De son côté, l'Art conceptuel a radicalisé cette approche en faisant de l'idée la substance même de l'œuvre. Les artistes de ce courant comme Joseph Kosuth relèguent l’objet à un simple outil d’information ou de documentation : l’œuvre n’est plus ce que nous voyons, mais ce que nous concevons intellectuellement. La logique de la règle et du code est également manifeste dans la musique aléatoire de John Cage, qui a démontré la puissance des règles formelles agissant comme générateur de forme, indépendamment d'une exécution figée. Les célèbres Instructions de Sol LeWitt sont à cet égard des exemples fondamentaux : l'œuvre existe sous forme de règles et de codes linguistiques, où la relation entre le concept et sa manifestation devient le cœur de l'enjeu artistique9.

Cependant, il est essentiel de souligner que la critique de l’objet émanant de ces mouvements était principalement philosophique, relationnelle et performative. Les « règles », « scores » ou « instructions » qui organisent ces œuvres sont des structures conceptuelles destinées à contester les conventions esthétiques, mais elles demeurent inscrites dans un régime humain d’interprétation. Elles ne sont pas intrinsèquement liées à une infrastructure industrielle ou à des protocoles techniques régissant les réseaux et les systèmes informatiques. Ainsi, bien que ces pratiques privilégient le processus ou le code, elles reposent sur des opérations symboliques plutôt que sur des opérations computationnelles en cours, automatisées et dynamiques. C’est précisément cette dimension industrielle et protocolaire qui confère à l’art des systèmes de données sa spécificité. Elle introduit une rupture ontologique, dans la mesure où l’œuvre n’est plus seulement définie par un processus conceptuellement décrit ou un cadre conceptuel, mais se trouve conditionnée par des opérations computationnelles, des flux de données et des structures techniques automatisées, inscrites dans des infrastructures industrielles.

La reproductibilité technique : un questionnement déjà ancien

La remise en cause de l'unicité et de l'originalité de l'œuvre d'art constitue le second héritage historique majeur que l'art numérique réactive, après la crise de l'objet physique. En fait, dès 1936, Walter Benjamin a déjà analysé comment la reproduction mécanique, notamment la photographie et le cinéma, a ébranlé l'aura de l'œuvre d’art. Selon lui, la reproductibilité de masse déplace la valeur artistique vers les conditions d’exposition, de circulation et de réception, ouvrant la voie à une politisation nouvelle de l’image10. Cette problématique de la reproductibilité n’est donc pas nouvelle : l’unicité matérielle n’était déjà plus la condition nécessaire de la valeur esthétique. Cependant, dans le cas de l'image technique, cette reproductibilité mécanique opérait toujours sur des supports relativement stables ou durables. Les tirages photographiques et les copies filmiques, bien que multiples, demeuraient des répliques fidèles d’une forme initialement fixée.

Toutefois, lorsque le numérique s’intègre à l’art, le passage technologique ne constitue pas une simple intensification de la reproduction mécanique, mais une transformation ontologique de la nature même de la copie. Comme l’a montré Charlie Gere, la reproduction numérique est moins une reproduction qu'une ré-inscription ou ré-exécution. La production d‘une œuvre numérique n’est plus le multiple d’un original : elle est un ensemble d’opérations programmées, reconfigurables et intrinsèquement instables, définies par un protocole plutôt que par une matérialité donnée11. Cette dynamique de versions trouve un prolongement conceptuel chez Yuk Hui, qui définit l’« objet numérique » non par une substance fixe, mais par ses propriétés formelles et sa récursivité, autrement dit sa capacité à se modifier, à se réorganiser et à engendrer des versions successives12. L’œuvre n’est donc plus un état, mais une potentialité de transformation inscrite dans l’architecture technique qui la supporte.

D’un autre côté, cette instabilité constitutive modifie profondément les enjeux de la conservation. L’intégration du numérique n’implique pas simplement de nouvelles techniques de stockage, elle exige une redéfinition du concept même de préservation. La question n’est plus de conserver un original, mais de maintenir la possibilité d’une ré-exécution correcte de l’œuvre dans un environnement technique en évolution constante. Jean-Paul Cometti parle à ce propos de « paradoxes de la conservation », car il ne s’agit plus de préserver une forme matérielle fixe, mais la capacité opératoire de l’œuvre, c’est-à-dire le schéma technique, computationnel et protocolaire qui permet sa reproduction future13. Ce type de problématique n’est pas entièrement inédit dans l’histoire de l’art et de la musique, comme en témoignent les pratiques de reconstitution d’instruments anciens ou certaines formes de « musique ancienne électronique ». Toutefois, dans le cas spécifique des œuvres fondées sur la donnée, cette dépendance au schéma technique devient systématique, automatisée et indissociable d’infrastructures industrielles en constante évolution. La conservation devient ainsi une problématique ontologique pour l’œuvre, engageant la continuité des infrastructures plutôt que celle d’un support matériel, à la différence des démarches de reconstitution technique ou de recréation historique, telles que certaines formes de « musique ancienne électronique » ou la reconstruction d’instruments anciens, qui visent la restitution ponctuelle d’œuvres préexistantes plutôt que le maintien d’un régime opératoire en activité.

En conclusion de cette première partie, nous avons établi que certaines pratiques artistiques du XXᵉ siècle ont préparé le terrain en déstabilisant à la fois la centralité de l’objet et son aura. Cependant, la spécificité de l'esthétique des systèmes de données réside dans le fait que la dématérialisation numérique apparente ne correspond pas à une disparition de la matière, mais à une reconfiguration profonde des conditions matérielles d’existence de l’œuvre. Ces conditions sont désormais régies par des logiques calculables, algorithmiques et industrielles, où la forme se trouve en partie conditionnée par les protocoles techniques qui organisent les réseaux et les flux de données, tout en demeurant le lieu d’interventions conceptuelles et critiques de la part des artistes. Dans ce cadre, la seconde partie de cet article examinera la nouveauté de l’art à l’ère de l’industrie des données afin d’explorer cette spécificité ontologique et protocolaire.

La spécificité de l’esthétique des systèmes à l’ère industrielle

Si les remises en cause de l’objet initiées par Duchamp et prolongées par l’analyse de la reproductibilité technique chez Benjamin ont préparé le terrain critique, elles ne suffisent plus à saisir les enjeux actuels. L’approche systémique de Jack Burnham, formulée en 1968, marque certes un tournant en substituant à l’objet autonome une logique de réseaux et de relations14. Toutefois, cette vision demeure celle du « dernier théoricien de l’âge pré-numérique » : elle reste confinée à des modèles analogiques ou biologiques, sans intégrer la dimension computationnelle qui régit désormais les œuvres.

Or, la singularité de l’art à l’ère des données ne réside pas dans une simple dématérialisation, mais dans un déplacement ontologique radical. L’œuvre ne se définit plus par sa surface ou sa matière traditionnelle, mais s’établit sur un plan protocolaire, structuré par des logiques algorithmiques et industrielles. Contrairement au Process Art qui jouait avec des forces physiques comme la gravité, l’art des systèmes de données mobilise les forces invisibles des infrastructures techniques. Comme l’a montré Jussi Parikka, ces câbles et serveurs constituent une nouvelle géologie des médias, dotée d’une matérialité bien réelle et d’enjeux géopolitiques propres15.

Enfin, dans le but d’éviter toute confusion lors de notre discussion, dans cet article, nous utiliserons l'expression « l'art des systèmes de données » pour désigner notre objet d'analyse. Ce terme, tout en s'inscrivant dans la lignée du concept de Jack Burnham, s'en distingue par son ciblage explicite de l'infrastructure numérique : il s'agit de la pratique artistique contemporaine qui prend pour matériau et sujet critique non pas le simple processus ou les relations systémiques, mais spécifiquement les données, les algorithmes, les protocoles de réseau et les architectures industrielles de l'ère numérique. Tandis que l'art numérique est un terme générique désignant tout art utilisant la technologie informatique comme médium, l'art des systèmes de données représente une catégorie plus restreinte et ontologiquement distincte où l'œuvre opère une critique et une révélation des structures invisibles de la gouvernance technique.

La donnée comme nouvelle matérialité et le protocole comme forme

L’une des transformations majeures introduites par l’art des systèmes de données nous permet de repenser la matérialité de l’œuvre. Ainsi, notre hypothèse est que la matière de l'œuvre numérique n'est pas absente, mais déplacée : elle ne se situe plus dans la matérialité physique de l’objet, mais dans les opérations computationnelles et leurs supports matériels, qui structurent son existence. Contrairement aux démarches artistiques post-objet qui déplaçaient la matérialité vers l’action corporelle, la trace ou le concept, l’œuvre numérique repose sur les données et le code qui fonctionnent comme une matière opératoire capable de produire des événements plutôt qu’une substance stable.

Là où Jack Burnham concevait encore le système en termes de relations énergétiques et informationnelles dépendantes d’un environnement pré-numérique, l’ère des données déplace cette pensée vers un régime explicitement computationnel. Ce ne sont plus les relations systémiques qui constituent la matière de l’œuvre, mais la donnée elle-même, envisagée comme un flux opératoire. Dans cette perspective, la donnée n'est pas un simple reflet informatif du réel, mais constitue une entité cinématique. Elle s’inscrit dans une logique du flux (Kinèma), dont la puissance provient du mouvement et de la transformation continue16. Cette nature dynamique et combinatoire confère à l'œuvre une plasticité ontologique : elle peut se reconfigurer, s’actualiser ou se transformer en fonction des opérations algorithmiques17. La structure même de l’œuvre se déplace ainsi vers l’organisation, la navigation et la visualisation des données, ce qui constitue de véritables gestes de construction formelle proches d’un travail sculptural ou architectural de l’information18. L'artiste devient un inventeur de schémas et d'algorithmes de visualisation, plutôt qu'un sculpteur de matière physique.

Ce flux dynamique doit cependant être stabilisé pour devenir perceptible. C’est ici que le protocole intervient. Si le Process Art utilisait l’entropie ou la pesanteur comme contraintes formelles, l’art des systèmes de données mobilise les contraintes computationnelles du réseau. Les protocoles tels que TCP/IP ou les APIs19 agissent comme des schémas temporaires qui confèrent une forme à la donnée en mouvement. Dans ce contexte, un protocole peut être défini comme une règle de circulation et de transformation qui conditionne l’existence même de l’objet numérique. L’objet numérique n’est plus défini par une substance matérielle stable, mais par des propriétés formelles et une récursivité qui lui permettent de générer des versions successives à partir du même code20. Ainsi, le protocole n’est pas seulement une structure technique : il devient la forme de l’œuvre, en déterminant ses conditions de circulation, de latence et de transformation. Le protocole opère dès lors comme une forme de gouvernance qui organise l’existence des objets numériques et redéfinit les limites formelles de la création contemporaine21.

Dans certains œuvres emblématiques de Ryoji Ikeda, notamment les séries datamatics et test pattern, s’incarnent de manière exemplaire ce déplacement ontologique. Dans ces séries, il rend visibles et audibles les flux bruts de données22. L’esthétique de ces œuvres ne provient pas d’un motif visuel ou sonore stable, mais de l’acte même de traitement protocolaire qui agence le signal brut numérique et la structure binaire. Ikeda transforme ainsi le flux (Kinèma) en une expérience perceptive minimale, montrant que la forme esthétique émerge directement de la logique du protocole et de l’architecture binaire. Par cette mise en scène de l’infrastructure, l’œuvre confirme que la nouvelle matérialité de l’art des systèmes de données est celle du calcul et du protocole, un régime fondé sur des flux opératoires et des formes de gouvernance qui redéfinissent la forme artistique comme dynamique plutôt que comme structure fixe.

La grammatisation du sensible et l'esthétique de l’invisible

Concevoir le protocole comme forme et la donnée comme matérialité opératoire redéfinit le régime d'existence de l'œuvre. Par conséquent, cette mutation ontologique du plan physique au plan computationnel et protocolaire induit nécessairement une transformation radicale du régime de la perception. L'expérience esthétique, désormais indexée sur des architectures dynamiques, des flux invisibles et les logiques du calcul, ne se laisse plus réduire à la contemplation d’un objet fini et stable. Dans ce nouveau cadre, la perception ne constitue plus le simple prolongement d’un rapport sensoriel au monde, mais devient l’espace où se rejouent les effets des infrastructures computationnelles. C'est précisément dans ce contexte de refonte du sensible par la technique que la théorie de la grammatisation développée par Bernard Stiegler devient un outil d’analyse fondamental23.

Selon Bernard Stiegler, le processus de grammatisation désigne une opération fondamentale par laquelle les techniques numériques procèdent à la capture et au reformatage des flux temporels et spatiaux de la perception humaine. Cette inscription technique, historiquement initiée par l'écriture et l'enregistrement, culmine à l’ère numérique avec la conversion de la « vie psychique » en « vie technique » par l’établissement de la « Rétention tertiaire24 ». Cette mémoire externalisée et protocolaire ne se contente pas de stocker des informations : elle devient la matrice qui structure activement notre sensibilité et préconditionne notre rapport au monde. En fragmentant les phénomènes en unités discrètes de données et en les soumettant à la logique du calcul, l’infrastructure technique nous conditionne à appréhender l'existence non plus selon la durée subjective ou la forme statique, mais comme des événements récurrents et des perturbations dynamiques au sein d’un système. Ainsi, la grammatisation n’est pas uniquement un processus de capture, mais un mécanisme d’organisation du sensible qui redistribue les frontières mêmes du perceptible. Suite à cette réflexion, nous nous interrogeons : comment une esthétique peut-elle se constituer à partir de ce qui ne se donne pas directement à voir, mais qui gouverne pourtant toute apparition ?

Ce processus de grammatisation, en déplaçant l'ancrage du sensible d’une substance fixe vers une structure de flux et d'algorithmes, ouvre un nouveau champ esthétique, indissociable de dimensions économiques, politiques et géopolitiques, que nous pouvons qualifier d’esthétique de l’invisible. Dans ce régime, l'œuvre d'art ne vise plus la représentation ou la figuration d’un objet, mais tend à opérer directement sur les forces en jeu et les conditions techniques d'existence. L'objet esthétique par excellence n'est plus ce que le regard peut contempler immédiatement. Il devient l'architecture systémique souvent opaque, soit une couche infra-esthétique composée du code, du protocole de réseau et de la latence, qui agissent de manière constitutive en arrière-plan. Cette opacité n’est pas seulement d’ordre perceptif, mais relève également d’une configuration idéologique et économique, propre aux régimes contemporains de gouvernance algorithmique et de circulation du capital. La forme artistique, en se retirant du visible pour s'établir dans des logiques d’infrastructures25, révèle une tension structurante : le sensible est désormais façonné par ce qui excède sa propre visibilité. L'expérience esthétique se transforme alors en une tentative d'intelligibilité critique du milieu computationnel, où l'enjeu n'est pas de voir, mais de déchiffrer la complexité et l'opacité des systèmes qui gouvernent notre perception.

L'artiste Rafael Lozano-Hemmer met en scène cette grammatisation du corps à travers des installations interactives comme « Pulse Room26 », qui ne réagissent pas à une présence physique individuelle, mais aux données physiologiques ou environnementales produites par les corps du public, souvent simultanément. Ces corps, capturés par les capteurs, deviennent des sources de données au sein de boucles de rétroaction, illustrant la manière dont l’esthétique contemporaine se déplace vers l’opération des systèmes plutôt que vers la présentation d’un objet.

D’un autre côté, des artistes comme Trevor Paglen se consacrent à rendre visible l’infrastructure invisible de la surveillance, notamment à travers des œuvres photographiques de satellites ou de câbles sous-marins. Ses projets, qui tiennent de l’enquête et de la téléphotographie, révèlent la matérialité énergétique et géopolitique qui organise l'espace de la communication27. Dans ces deux démarches, l’enjeu esthétique ne réside plus dans la forme présentée, mais dans la prise de conscience critique des logiques qui conditionnent l’apparition elle-même. Elles ne se contentent donc pas d’illustrer la grammatisation : elles démontrent que l’esthétique numérique contemporaine se constitue depuis ce régime de visibilité différée où percevoir revient à interpréter les opérations d’infrastructures qui structurent notre milieu perceptif.

Entre standardisation et perturbation : une esthétique critique des systèmes

L'art des systèmes de données, en révélant les protocoles et les flux invisibles, s'inscrit inéluctablement dans une esthétique critique. La pratique artistique ne se limite plus à l'utilisation des outils technologiques, elle se positionne comme un contre-pouvoir face aux logiques de standardisation industrielle qui caractérisent l'ère des plateformes et de l'intelligence artificielle. Ces systèmes industriels, souvent regroupés sous l'acronyme GAFAM, cherchent à standardiser les interfaces et les comportements pour optimiser l'extraction et l'exploitation des données. L'art, en réponse, développe une critique du protocole par son détournement et sa subversion, dans un contexte où la subversivité ne relève plus d’un geste marginal, mais constitue une condition même d’existence de ces pratiques au sein des systèmes industriels qui les produisent28. Cependant, la question centrale n’est pas seulement de savoir comment l’artiste résiste à cette normalisation technique, mais de comprendre comment l’œuvre peut transformer la standardisation elle-même en un espace d’expérimentation esthétique, où la perturbation devient un mode d’intelligibilité critique des systèmes.

Cette problématique engage une distinction essentielle. D’un côté, la standardisation industrielle impose des formats, des comportements et des régimes d’attention qui homogénéisent les pratiques. De l’autre côté, la perturbation artistique introduit un désordre productif qui déstabilise ces normes, révélant leur caractère politique. Ainsi se dessine une tension constitutive entre les logiques du standard et les opérations de la perturbation, tension qui structure l’esthétique critique des systèmes. Dans cette perspective, le hack, la mise en échec de l’interface ou l’analyse des infrastructures ne sont pas des gestes isolés, mais des stratégies permettant de politiser des environnements techniques conçus pour rester invisibles.

Cette approche critique distingue l'esthétique du hacking de la simple observation des processus informatiques. Le collectif artistique Jodi (Joan Heemskerk et Dirk Paesmans) a été pionnier dans cette démarche en pratiquant le piratage du web et la subversion de l'interface29. Leurs œuvres, souvent composées de glitchs et d'erreurs, transforment les défaillances du code en motifs esthétiques, politisant l'infrastructure en exposant sa fragilité et ses logiques internes. Le glitch n'est pas un simple accident, il est l'expression de la machine qui fait irruption à la surface de l'interface standardisée, affirmant une forme de « dissent technique30 ». Ce geste fait émerger un paradoxe fondamental : l’erreur, habituellement perçue comme un défaut à corriger, devient ici un opérateur critique révélant les conditions techniques de l’apparition. Le glitch opère ainsi comme une perturbation qui révèle la logique normative du standard plutôt que de s’y soumettre. Cette logique de perturbation n’est d’ailleurs pas sans rappeler certaines démarches musicales non numériques, telles que celles de Helmut Lachenmann. Toutefois, dans le cas du glitch, cette critique s’inscrit spécifiquement dans un régime computationnel, où l’erreur ne concerne pas seulement le geste ou le matériau, mais les protocoles mêmes de fonctionnement des systèmes techniques

Parallèlement au hacking de l'interface, une autre orientation esthétique s’ancre dans une perspective d’écologie de l’information. Elle ne cherche pas à briser les interfaces, mais à analyser les environnements computationnels qui structurent la circulation des données. Par exemple, l’œuvre de Hito Steyerl analyse de manière critique la circulation des images numériques et l'économie qui les soutient. Elle expose comment les « images pauvres » (Poor Image), en tant que flux de données dégradés et compressés, sont soumises à des biais, à des régimes d’opacité et à des logiques de pouvoir qui les dématérialisent en apparence tout en renforçant leur matérialité industrielle réelle31. Dans ce déplacement, l’image cesse d’être un support visuel et devient un phénomène : la trace d’un système de production où les infrastructures computationnelles décident de la valeur, de la visibilité et du devenir des formes.

Dans le même esprit, Liam Young explore les architectures du Post-Anthropocène : les centres de données, les fermes de serveurs et les réseaux logistiques. Ces architectures, parfois décrites comme « paysages pour machines », ne sont pas conçues pour l'habitation humaine, mais pour l'efficacité algorithmique32. En se concentrant sur ces sites d'exclusion, Young politise les infrastructures en révélant l'impact environnemental, la consommation énergétique et l’organisation territoriale des systèmes. Loin d’être documentaires, ses œuvres opèrent un geste critique qui consiste à faire apparaître l’arrière-plan invisible de la computation : l’épaisseur matérielle et géopolitique qui soutient l’abstraction numérique. La perturbation n’est plus ici un dérèglement du code, mais une reconfiguration du regard, capable de déstabiliser l’illusion de neutralité des infrastructures. Dans ce cas, il convient toutefois de souligner que les œuvres de Liam Young relèvent moins d’un art qui opère directement par les systèmes de données que d’un art qui prend ces systèmes pour objet critique. Ce déplacement n’en diminue pas la portée esthétique, mais permet de distinguer des pratiques fondées sur l’opération des flux de celles qui en proposent une mise en visibilité critique.

Ainsi, l’enjeu de cette esthétique critique n’est pas seulement de dénoncer la standardisation industrielle, mais de transformer la perception des infrastructures opaques en une connaissance politique des conditions matérielles de l’existence numérique. L’art devient un opérateur de perturbation, capable d’ouvrir des espaces de résistance dans des environnements techniques conçus pour orienter, canaliser et normaliser la sensibilité. Entre standardisation et perturbation, l’esthétique contemporaine révèle que le sensible n’est jamais donné, mais toujours conditionné, et que l’acte artistique consiste précisément à rendre visible cette condition.

Conclusion : vers une ontologie du flux

L’art des systèmes de données apparaît, au terme de cette analyse, comme l’un des terrains privilégiés pour comprendre la mutation profonde de la matérialité à l’ère computationnelle. Partiellement héritier des critiques de l’objet formulées tout au long du XXᵉ siècle, l’art des systèmes de données prolonge certaines de ces transformations tout en opérant une rupture décisive. Là où les pratiques processuelles, performatives ou conceptuelles avaient déplacé l’œuvre vers l’action, la trace ou la règle, l’art contemporain fondé sur les flux de données inscrit désormais l’œuvre dans un régime d’existence structuré par les opérations du calcul, par les protocoles techniques et par les infrastructures industrielles qui soutiennent le réseau.

Ce déplacement n’équivaut pas à une disparition de la matérialité : il en constitue une reconfiguration. La donnée, pensée comme flux et comme puissance opératoire, impose une matérialité dynamique fondée sur la transformation continue plutôt que sur la stabilité d’une substance. Le protocole agit quant à lui comme forme et comme condition de gouvernance, déterminant les possibilités de circulation, de variation et d’apparition des œuvres. Enfin, les infrastructures numériques, qui engagent des dimensions énergétiques, géologiques et géopolitiques, rappellent que l’immatérialité apparente du numérique est soutenue par un socle matériel complexe et territorialement situé, et non par un espace abstrait détaché du monde.

En ce sens, l’art des systèmes de données révèle les enjeux esthétiques et politiques de l’industrie contemporaine. En rendant visibles les flux, les latences, les normes logicielles ou les architectures opaques, ces pratiques déplacent l’attention du visible vers des conditions techniques d’apparition du visible. Elles montrent que l’esthétique actuelle ne se joue plus seulement dans la forme perçue, mais dans les opérations qui la rendent possible, dans les régimes d’automatisation qui la structurent et dans les gouvernances industrielles qui la définissent.

Ces constats ouvrent plusieurs perspectives de recherche. La première concerne la conservation et la transmission de ces œuvres instables, fondées sur la génération de versions et la ré-exécution plutôt que sur la fixité d’un support. Les approches orientées vers le Variable Media, la simulation ou la documentation des processus constituent des pistes essentielles pour repenser la pérennité de telles pratiques. La deuxième porte sur la nécessité d’une archéologie des médias et des infrastructures, entendue comme une analyse des strates techniques et matérielles, capable d’analyser les conditions matérielles, énergétiques ou géopolitiques qui soutiennent l’industrie des données. Enfin, une réflexion critique doit se poursuivre sur les implications politiques et éthiques de ces systèmes, qu’il s’agisse des logiques algorithmiques, de la standardisation des comportements ou du rôle de l’artiste dans la mise en lumière des protocoles qui gouvernent nos milieux sensibles.

En replaçant l’art au cœur des dynamiques industrielles, computationnelles et infrastructurelles, cette recherche propose ainsi d’envisager une esthétique fondée non plus sur des objets ni sur les récits, mais sur les régimes de flux qui structurent désormais la vie technique, l’imaginaire social et les formes contemporaines de gouvernance. Une telle ontologie du flux permet de comprendre l’art des systèmes de données comme une pratique qui ne se contente pas de refléter l’industrie numérique, mais qui en explore, en critique et en reconfigure les conditions mêmes d’existence.


Bibliographie

Abe Kazunao, Saez de Ibarra Maria Belen et Weil Benjamin, Ryoji Ikeda : Datamatics, Milan, Charta, 2012.

Benjamin Walter, « L'Œuvre d'art à l'époque de sa reproductibilité technique » [1936], in Œuvres III, Paris, Gallimard, « Folio Essais », 2000.

Burnham Jack, « Systems Esthetics », Artforum, vol. 7, n° 1, septembre 1968.

Burnham Jack, L'Esthétique des systèmes [1968], traduit de l'anglais (États-Unis) par Franck Lemonde, Dijon, Les Presses du réel, 2015.

Buskirk Martha, The Contingent Object of Contemporary Art, Cambridge (MA), MIT Press, 2003.

Cometti Jean-Pierre, Conserver / Restaurer. L’œuvre d’art à l’ère de sa préservation technique, Paris, Gallimard, 2016.

Galloway Alexander R., Protocol : How Control Exists After Decentralization, Cambridge (MA), MIT Press, 2004.

Gere Charlie, Art, Time and Technology : Histories of the Disappeared, Oxford, Berg, 2006.

Hui Yuk, On the Existence of Digital Objects, Minneapolis, University of Minnesota Press, 2016.

Judd Donald, « Specific Objects », in Arts Yearbook, n° 8, New York, George Wittenborn, 1965.

Kaprow Allan, Essays on the Blurring of Art and Life, Berkeley, University of California Press, 1993.

LeWitt Sol, « Sentences on Conceptual Art », Art-Language, vol. 1, n° 1, mai 1969.

Lozano-Hemmer Rafael, Pulse Room (2006), Musée d'art contemporain de Montréal (MACM), [en ligne] https://macm.org/collections/oeuvre/pulse-room/, consulté le 25 novembre 2025.

Manovich Lev, The Language of New Media, Cambridge (MA), MIT Press, 2001.

Menkman Rosa, The Glitch Moment(um), Amsterdam, Institute of Network Cultures, 2011.

Morris Robert, « Anti-Form », Artforum, vol. 6, n° 8, avril 1968.

Nail Thomas, Theory of the Object, Edinburgh, Edinburgh University Press, 2021.

Paglen Trevor, « Invisible Images : Your Pictures Are Looking at You », Aperture, n° 228, 2017.

Parikka Jussi, A Geology of Media, Minneapolis, University of Minnesota Press, 2015.

Rifkin Jeremy, La Troisième Révolution industrielle, Paris, Les Liens qui libèrent, 2012.

Starosielski Nicole, The Undersea Network, Durham, Duke University Press, 2015.

Steyerl Hito, « In Defense of the Poor Image », E-flux Journal, n° 10, novembre 2009, [en ligne] https://www.e-flux.com/journal/10/61362/in-defense-of-the-poor-image, consulté le 25 novembre 2025.

Stiegler Bernard, La Technique et le Temps, Paris, Fayard, 2018.

Vesna Victoria (dir.), Database Aesthetics : Art in the Age of Information Overflow, Minneapolis, University of Minnesota Press, 2007.

Young Liam (dir.), « Machine Landscapes : Architectures of the Post-Anthropocene », Architectural Design, vol. 89, n° 1, 2019.

Notes et références

1 La « troisième révolution industrielle », souvent associée à l'essor des technologies numériques et des données depuis les années 1980, est un concept central en sociologie et en économie. Voir, par exemple, Jeremy Rifkin, La Troisième Révolution industrielle, Paris, Les Liens qui Libèrent, 2012.

2 Thomas Nail, Theory of the Object, Edinburgh, Edinburgh University Press, 2021, p. 23-28.

3 Nous employons ici le terme « géologique » dans le sens défini par l'auteur, désignant la composition matérielle des médias (minéraux, métaux rares, énergie) et leur impact environnemental, au-delà de leur simple localisation géographique. Voir : Jussi Parikka, A Geology of Media, Minneapolis, University of Minnesota Press, 2015, p. vii–ix.

4Jack Burnham, « Systems Esthetics », Artforum, vol. 7, n° 1, septembre 1968, p. 30-35.

5 Donald Judd, « Specific Objects », in Arts Yearbook, n° 8, New York, George Wittenborn, 1965, p. 181-189.

6 Martha Buskirk, The Contingent Object of Contemporary Art, Cambridge (MA), MIT Press, 2003, p. 211 sq.

7 Allan Kaprow, Essays on the Blurring of Art and Life, Berkeley, University of California Press, 1993, p. 81–83.

8 Process Art (ou art de processus) est un mouvement artistique majeur des années 1960 qui privilégie le geste de création, l'éphémère et les propriétés intrinsèques de la matière (mouvement, gravité, usure, entropie) plutôt que l'objet fini et stable. Il est souvent lié à l’Anti Form théorisé par Robert Morris. L’entropie est ici comprise comme la tendance naturelle d'un système à la désorganisation et à la perte d'énergie, utilisée par les artistes comme un principe de composition. Voir Robert Morris, « Anti-Form », Artforum, vol. 6, n° 8, avril 1968, p. 37-41.

9 Sol LeWitt, « Sentences on Conceptual Art », Art-Language, vol. 1, n° 1, mai 1969, p. 11-13.

10 Walter Benjamin, « L'Œuvre d'art à l'époque de sa reproductibilité technique » [1936], in Œuvres III, Paris, Gallimard, coll. « Folio Essais », 2000, p. 269-316.

11 Charlie Gere, Art, Time and Technology : Histories of the Disappeared, Oxford, Berg, 2006, p. 124-131.

12 Yuk Hui, On the Existence of Digital Objects, Minneapolis, University of Minnesota Press, 2016, p. 29-45.

13 Jean-Pierre Cometti, Conserver/Restaurer. L’œuvre d’art à l’ère de sa préservation technique, Paris, Gallimard, 2016, p. 95-100.

14 Jack Burnham, « Systems Esthetics », op. cit., p. 30-35.

15 Jussi Parikka, A Geology of Media, op. cit., p. 24.

16 Selon Thomas Nail, l’objet est défini comme un flux (Kinèma), ce terme grec désignant le mouvement et la transformation continue qui constituent l’essence de son existence. Voir Thomas Nail, Theory of the Object, op. cit., p. 8-15.

17 Lev Manovich, The Language of New Media, Cambridge (MA), MIT Press, 2001, p. 40-48.

18 Victoria Vesna (dir.), Database Aesthetics : Art in the Age of Information Overflow, Minneapolis, University of Minnesota Press, 2007, p. ix–xiii.

19 TCP/IP (Transmission Control Protocol / Internet Protocol) et API (Application Programming Interface) sont les règles techniques qui régissent, respectivement, la circulation des paquets de données sur Internet et l'interaction entre les logiciels, illustrant cette logique de contrôle formel.

20 Yuk Hui, On the Existence of Digital Objects, op. cit., p. 23-73.

21 Le protocole est analysé ici comme une technologie de gouvernance qui organise le contrôle au sein des systèmes décentralisés, ce qui l’institue en véritable forme pour l'œuvre d'art numérique. Ce cadre théorique est développé par Alexander R. Galloway, qui définit les protocoles comme des standards informatiques qui structurent la communication. Voir Alexander R. Galloway, Protocol : How Control Exists After Decentralization, Cambridge (MA), MIT Press, 2004, p. 45-50.

22 Pour une analyse de l’approche d’Ikeda comme « visualisation de la donnée brute » (visualization of raw data), voir Kazunao Abe, Maria Belen Saez de Ibarra et Benjamin Weil, Ryoji Ikeda : Datamatics, Milan, Charta, 2012.

23 Ce concept, qui réinvestit la « grammatologie » de Jacques Derrida tout en reprenant le terme forgé par le linguiste Sylvain Auroux, désigne ici le processus par lequel les flux temporels, tels que la parole, le geste ou la perception, sont « discrétisés », c'est-à-dire découpés en éléments discrets et reproductibles par la technique, notamment via l'écriture ou la numérisation. Voir Bernard Stiegler, La Technique et le Temps, Paris, Fayard, 2018, p. 289 sq.

24 Sur la notion de rétention tertiaire comme transformation de l'expérience temporelle et sensible, voir : Ibid., p. 593-600.

25 Alexander R. Galloway, Protocol, op. cit., p. 45-50.

26 Rafael Lozano-Hemmer, Pulse Room (2006), Musée d'art contemporain de Montréal (MACM), [en ligne] https://macm.org/collections/oeuvre/pulse-room/, consulté le 25 novembre 2025.

27 Sur la critique de l'infrastructure invisible et les enjeux géopolitiques de la communication, voir notamment : Trevor Paglen, « Invisible Images : Your Pictures Are Looking at You », Aperture, n° 228, 2017 ; et Nicole Starosielski, The Undersea Network, Durham, Duke University Press, 2015.

28 Cette analyse s'inscrit dans la continuité de la théorie du protocole. Voir : Alexander R. Galloway, Protocol, op. cit., p. 7-18.

29 Jodi (Joan Heemskerk et Dirk Paesmans) est considéré comme un collectif pionnier de l'esthétique du glitch et du software art. Voir notamment : Rosa Menkman, The Glitch Moment(um), Amsterdam, Institute of Network Cultures, 2011, p. 38-40.

30 Le glitch comme perturbation esthétique dénonçant les logiques techniques et la transparence de l'interface. Voir notamment : Ibid., p. 29-32.

31 Sur l'analyse des « images pauvres » et l'économie politique de la circulation : Hito Steyerl, « In Defense of the Poor Image », E-flux Journal, n° 10, novembre 2009, [en ligne] https://www.e-flux.com/journal/10/61362/in-defense-of-the-poor-image, consulté le 25 novembre 2025.

32 Liam Young (dir.), « Machine Landscapes : Architectures of the Post-Anthropocene », Architectural Design, vol. 89, n° 1, 2019.

Du même auteur

Tous les articles

Aucune autre publication à afficher.