Interview de Lauren Huret

Joël Vacheron : Dans votre œuvre Praying for my haters, vous mettez au grand jour l’existence d’un « prolétariat numérique » incarné par les travailleurs du Net dont le métier est de de trier et d’effacer certaines images violentes et traumatisantes qui circulent. Comment a débuté ce projet et que raconte-t-il ?

Lauren Huret : En 2016, je tombe par hasard sur un article en ligne du magazine Wired, signé d’Adrian Chen, qui fait état de travailleuses et travailleurs aux Philippines qui trient jour et nuit les contenus problématiques postés par les utilisateurs sur les « réseaux sociaux ». Ces personnes sont souvent employées en sous-traitant pour le compte d’entreprises comme Facebook par exemple. J’ai été immédiatement frappé par beaucoup de détails écoeurants qui confirmaient l’horreur de la réalité de ces travailleuses et travailleurs du net que l’on appelle « modératrices ou modérateurs » ou parfois « data analyst ». Ce qui m’a également touché, c’est le peu d’informations à propos de ces personnes et ce type de travail et sur les processus d’invisibilisation, notamment à travers la notion très marketing du tout- automatisant. La plupart des entreprises travaillent à développer un imaginaire véhiculant l’idée que beaucoup de processus sont complètement automatisés. En réalité, il y a une main d’œuvre humaine abondante et sous-payée pour effectuer toutes ces « micro-tâches ».

Au début de ces recherches, j’ai entraperçu l’immense « capital économique de l’image » : centres de tri, routes, objectifs de consommation, etc.. J’ai essayé de comprendre le nouveau statut de l’image qui se dessine dans ces nouveaux usages.

Suite à la lecture de cet article d’Adrian Chen, j’ai poursuivi mes recherches sur le sujet et j’ai eu la chance d’obtenir une bourse de Pro Helvetia pour partir aux Philippines afin d’y faire une enquête de terrain. J’ai aussi rapidement rencontré un des réalisateurs du film « The Cleaners », Hans Block, qui a eu la gentillesse de me fournir des informations très utiles sur place. À Manille, ça a été compliqué d’infiltrer ces unités de travail, de rencontrer ces personnes, car ils et elles sont tenues au secret en signant un contrat de confidentialité. Mais j’ai découvert peu à peu l’ampleur de cette nouvelle économie de l’image. Mes intentions étaient de cerner à quel point le travail humain et le travail machinique étaient liés et pourquoi les entreprises prenaient grand soin à dissimuler ce travail derrière l’illusion de l’automation totale. Quand je parle du travail effectué par les modératrices et les modérateurs de contenus, la plupart des personnes n’ont aucune idée de toutes ces infrastructures mises en place. Deux chercheurs, Hamid R. Ekbia et Bonnie A.Nardie1 , ont trouvé un terme spécifique pour décrire cette situation : l’hétéromation.

JV : Qu’y a-t-il derrière ce phénomène d’hétéromation que vous évoquez ?

LH : C’est une question très complexe, car il y a énormément de facteurs en jeu. Le terme d’ « Hétéromation » définit plusieurs nouveaux phénomènes de production de capital, de valeur, et un échange continu de tâches entre humains et machines. Il s’agit d’une relation de travail humain-machine. Le terme d’Hétéromation parle justement de cette extraction de valeur produite par l’utilisation humaine des ordinateurs : quand une entreprise tire des bénéfices au détriment de l’usager. Ce processus est souvent invisibilisé. Quand nous échangeons des choses et sommes actives et actifs sur les réseaux sociaux, nous produisons de la valeur pour ces entreprises, mais nous n’en avons pas forcément conscience. Ces opérations de sélection de contenus semi-automatisées influencent grandement les images que nous voyons, cette « bulle algorithmique » façonne nos quotidiens. C’est également ce qu’on appelle désormais « la capitalisme de surveillance ».

JV : Dans ce « capitalisme de surveillance », avons-nous vraiment conscience que des humains sont derrière la machine pour censurer les contenus ?

LH : Cela dépend vraiment des plateformes et des logiciels utilisés pour faire la modération (ou la censure, c’est selon). Souvent les contenus problématiques sont reportés par des humains, et les logiciels les distribuent pour que les êtres humains puissent définir si cela peut rester en ligne ou pas. Je pense que certains contenus sont faciles à identifier par les machines, comme la nudité par exemple, mais il faut l’œil humain pour statuer. Quand quelqu’un se plaint que son contenu a été supprimé par facebook, c’est sûrement un.e travailleur.se sous-payé.e quelque part en Inde ou aux Philippines qui a pris la décision. Dans l’incroyable documentaire « The Cleaners » de Moritz Riesewieck et Hans Block, on parvient à comprendre le type de décision que ces personnes doivent effectuer au quotidien. Ils « delete » ou « ignore » des milliers d’images avec un temps moyen de huit secondes pour la prise de décision. Quant au type de contenu censuré, cela dépend de la plateforme, des valeurs de l’entreprise, des guides écrits servant de référents, etc. Le ratio entre ce qui doit choquer et ce qui ne doit pas choquer est très difficile à saisir. Souvent, les réseaux sociaux veulent laisser les contenus légèrement problématiques pour garder les utilisateurs.trices engagé.es. On est souvent plus impliqué.e.s, et c’est très humain, quand des choses nous révoltent et nous choquent. On a tendance à les partager plus souvent. C’est très vaste et cette complexité est très bien expliquée dans le livre de Sarah T. Roberts2 .

JV : Votre travail d’artiste questionne-t-il un certain rapport « magique » aux images et, plus largement, les systèmes de croyance associés aux technologies de la communication ?

LH : Je dirais plutôt que j’essaie de « déjouer » la croyance en l’automation ou plutôt « la promesse de l’automation totale » dans ce cas précis. Ce qui m’intéresse, c’est d’explorer le bug, le mensonge, l’omission, et d’autres aspects irrationnels et contradictoires de l’être humain. Ce que je regarde dans une machine, ce sont les croyances à l’œuvre dans son fonctionnement interne. Cela donne beaucoup d’indices sur notre psyché collective, nos espoirs, nos faiblesses.

Pour mon travail vidéo « Les âmes suspendues » (2017), j’ai utilisé une simple application de filtres faciaux disponible sur un « réseau social » pour trouver des « visages » dans ce qui m’entourait. Je scannais en quelque sorte mon environnement direct, mon atelier, et le programme s’efforçait en vain de retrouver des traits humains dans tout type d’objets. Cette utilisation forcée du logiciel créait des sortes de fantômes, référence directe faite aux premières manipulations photographiques de la fin du XIXème siècle, qu’on appelle maintenant la photographie spirite. Les filtres ont vraiment modifié notre rapport à l’image de soi. Leur automatisation fait qu’on ne les perçoit presque plus, voire plus du tout. J’avais qualifié cette action de « paréidolie algorithmique », c’est-à-dire une méthode pour forcer un peu le logiciel à imaginer des choses, à révéler ses fragilités, ses défaillances.

J’essaie de me dire que chaque image produite est une sorte de tour de magie. Chaque image, qu’elle soit générée par des machines ou produites par des êtres humains, est une apparition fantastique. Les images sont des forces politiques ultra-puissantes ! Elles peuvent être menaçantes et ne refléter en rien une réalité. En tant que fervante critique des médias, j’essaie de constamment questionner la présence des médias dans nos vies, et d’analyser leurs influences diverses. On a tendance à adhérer par principe aux choses que nous voyons sans les avoir vécues. Les images de manifestation anti-racistes me touchent au plus au point par exemple, tout comme une vidéo d’un petit chaton… tout ceci est vu sur la même plateforme donc au même plan… c’est un travail extrêmement difficile pour le cerveau et pour le corps de distinguer, de trier, de se soucier et d’agir. Les images nous affectent et sont des affects. Il me semblerait naïf de penser que regarder son feed d’insta à longueur de journée ne produirait rien, en terme d’affect, de comportement, de processus d’adhésion à certaines idées, et d’autres processus que je n’ai pas encore identifié moi-même. Les algorithmes de séléction de contenu n’arrangent rien. Si vous êtes xénophobe, misogyne et raciste, des contenus similaires risquent d’apparaître dans votre bulle et vont vous conforter dans vos idées.

JV : Vous allez même jusqu’à parler d’ « images maudites », qu’entendez-vous par là ?

LH : Dans mes travaux plus récents (par exemple, « Praying for my haters », exposition et édition au Centre Culture suisse en 2019), je voulais comprendre un peu mieux le statut de l’image aujourd’hui, à l’heure d’Internet et du tout-communiquant (ou « mass-sharing »). Nous n’avons jamais autant été soumis aux images. Elles sont absolument partout. La définition d’une image maudite serait une image qui laisse une empreinte négative sur notre corps, à un tel point qu’on ne peut l’oublier. Elle nous a un peu modifié, en entrouvrant des « mondes de l’horreur ». Yves Citton parle plutôt d’images maudissantes ou d’images radioactives, car pour lui les images ne sont pas en elles-mêmes maudites, mais elles produisent un effet à partir du moment où elles sont vues. On sait que les images peuvent nous affecter grandement, mais on a de la peine à construire un nouveau vocabulaire autour de ça. Le vaste champs de recherche des « Visual studies » est une des pistes à privilégier bien sûr.

JV : Vous dites que les images peuvent nous affecter profondément, et vous parlez d’un « pouvoir performatif de l’image» ?

LH: Lorsque j’ai eu la chance d’interviewer Manos Tsakiris pour mon livre « Praying for my haters », il décrit très bien ce phénomène car il effectue des recherches sur comment les images nous atteignent. Je citerai donc ce morceau d’interview qui me paraît être une bonne manière de conclure : « Les images, sous leurs formes les plus diverses (des peintures et icônes jusqu’aux photographies et même au-delà), ont toujours été de puissants agents culturels. Leur pouvoir performatif a été largement traité à travers les disciplines, que ce soit l’histoire de l’art et celle des émotions ou la sociologie des médias et, plus récemment, les sciences politiques. Les images, et en particulier les photographies, n’agissent pas comme les mots puisqu’elles sont censées être les témoins véridiques de la réalité. Sans compter que l’avènement du photojournalisme a doté les photographies d’un pouvoir politique substantiel en raison de leur capacité à cadrer la réalité, au moyen de l’objectif, et à déterminer quels sujets sont rendus visibles ou non, et comment. De nos jours, le pouvoir des images est encore plus net du fait de leur propagation instantanée sur les médias numériques globalisés. (…) Nous vivons donc une ère de politique globale de l’image où les représentations visuelles peuvent devenir elles-mêmes une force politique. »

Cette interview a été réalisée par Joël Vacheron dans le cadre du projet de recherche Automated Photography (www.automated-photography.ch) de l’ECAL/Ecole cantonale d’art de Lausanne (www.ecal.ch) et l’HES-SO. Une publication et une exposition de Automated Photography seront présentées au public dans le dernier trimestre de 2021.

  1. Hamid R. Ekbia et Bonnie A.Nardie, Heteromation, and Other Stories of Computing and Capitalism, MIT press, 2017
  2. Behind the Screen, 2019

Joël Vacheron, Interview de Lauren Huret, ECAL/École cantonale d’art de Lausanne et HES-SO, 2021