De passage au mois d’octobre au Luxembourg avec la journaliste Lili Fernandez, sur invitation de l’ONG Fairtrade Lëtzebuerg et de la Fondation Partage Luxembourg, le réalisateur Henri Poulain est venu présenter son documentaire « Les sacrifiés de l’IA » lors d’une soirée ciné-débat. Le film révèle la face cachée de l’intelligence artificielle, une technologie que l’on utilise quotidiennement et qui sera de plus en plus développée. Pour Ecorama Luxembourg, il revient sur les conditions des travailleurs de la donnée, des personnes invisibilisées dont le travail peut mettre la santé mentale en danger. Il établit une distinction entre les différents types d’IA et pense qu’il est possible d’imaginer cette technologie sans qu’elle ne coûte à l’être humain.

Ecorama Luxembourg : Qui sont les data workers que vous montrez dans votre documentaire ?
Henri Poulain : Les data workers qui figurent dans le documentaire sont quelques-uns et quelques-unes d’une somme absolument hallucinante. En 2023, la Banque mondiale, après avoir mené une très longue étude tentant de compiler toutes les données à disposition, a conclu qu’il y en avait entre 140 et 430 millions sur la planète, majoritairement dans les pays du Sud.

Ce sont quelques-uns de ces data workers situés aux quatre coins de l’Europe, également en Afrique. Nous aurions pu aller en Amérique du Sud et en Asie du Sud-Est, puisqu’ils sont très majoritairement localisés dans les pays du Sud global, dans des pays paupérisés où les populations actives, et parfois diplômées, ont beaucoup de mal à trouver un emploi.

Les donneurs d’ordre, c’est-à-dire, les patrons des big techs ont cherché une main-d’œuvre très peu chère et corvéable à merci.

Dans le film, il y a différents types. Par exemple, on trouve des étudiants en Europe, des étudiants indiens ou des prisonnières dans les prisons finlandaises, ou des immigrées ukrainiennes en Bulgarie. Nous sommes allés à Nairobi, qui se trouve être une des places fortes de la tech en Afrique, où une grande partie des jeunes diplômés ne trouvant pas de travail, se retrouvent contraints de travailler soit sur des plateformes numériques, soit dans des ateliers de travail dédiés pour faire ce travail de data working.

Il y a un sous-ensemble qu’on a pu croiser à Nairobi, qui est majoritairement en Afrique et en Asie du Sud-Est, et un peu en Amérique du Sud aussi, qui sont les annotateurs de données et de contenus qu’on peut qualifier toxiques.

C’est-à-dire que pour apprendre à des IA qui fonctionnent sur le modèle du LLM (Large langage model), il faut leur apprendre à imiter les créations humaines, visuelles, audiovisuelles, textuelles, mais aussi à ne pas imiter certains écrits et contenus. Pour cela, il faut leur offrir des bibliothèques de contre-exemple. Afin de les bâtir, OpenAI est allé chercher des contenus sur les réseaux sociaux, mais aussi sur des sites pédocriminels, également aux terroristes, des images absolument et des textes absolument innommables, traumatisants. Il les a envoyés à Nairobi, ou à certains de celles et ceux qui figurent dans le film, qui nous racontent qu’ils ont dû les annoter, pas simplement les voir et faire la modération et les enlever. Il s’agit de les saisir et après de décrire très précisément ce qu’elles contenaient, ce que les textes racontaient. En réalité, le data working, c’est de l’annotation avec des mots-clés, des contenus, de manière après à les rendre digestes. Donc, à confectionner des datasets pour les rendre digestes par les algorithmes qui font fonctionner les IA.

E.L : Qu’est-ce que cela dit de la santé mentale de ces personnes ?

H.P : C’est absolument dramatique. C’est vraiment la quasi-totalité de celles et ceux qui travaillent sur ces données toxiques qui sont, au bout de quelques jours, très profondément traumatisés. Le spectre des traumatismes est très large. Cela va de la dépression profonde, pour les cas les plus légers, au passage à l’acte, tentative de suicide, meurtre, scarification, toutes les manifestations des syndromes post-traumatiques.

Il y a un trauma et il faut vivre avec. Ces travailleurs ne supportent pas de prolonger plus de quelques mois ce travail. C’est vraiment le fait de survivre qui les fait d’abord accepter, puis deuxièmement, continuer à travailler sur ces contenus toxiques. Quoi qu’il arrive, ils finissent toujours par arrêter parce qu’ils n’en peuvent plus. Par la suite, des mois, des années plus tard, et probablement à vie, ils seront marqués par ce trauma.

Ce n’est pas simplement une brutalité de l’instant, c’est aussi une brutalité à vie. Cela détruit les familles et les communautés. Il y a des effets néfastes que l’on ne peut pas encore tout à fait estimer puisque ce sont des traumas récents. À l’instant où je vous réponds, je sais qu’il y a des travailleurs en Amérique du Sud, en Afrique, qui sont en train d’annoter des contenus toxiques, qui sont en train d’être traumatisés, et qui sont en train d’aggraver une blessure qu’ils porteront toute leur vie.

E.L : Que font les États face au fait qu’il y ait des gens qui soient traumatisés ?

H.P : Les États ne font rien et il y a plusieurs raisons à cela. La première, qui est la plus évidente, c’est qu’en fait, ils ne savent pas. Il y a toute une stratégie de dissimulation, d’effacement de cette réalité. Déjà, il y a une stratégie d’effacement des travailleurs eux-mêmes. Des centaines de millions de travailleurs sur la planète font ce travail. Il y en a un qui est très neutre. Il s’agit juste d’annoter des données qui ne sont pas traumatisantes. Une partie, mais même cela, est effacée du récit. Les rares qui sont au courant de cette situation ont aussi beaucoup de mal à entrer en contact avec les travailleurs et les travailleuses.

Palo Alto et San Francisco sont très proche d’Hollywood. Si je dis cela, c’est parce qu’il y a tout à la fois une savante ingénierie technique, technologique, mais il y a également une savante technologie narrative. C’est-à-dire que les big tech se sont développées parallèlement. Elles ont autant d’énergie à développer leurs systèmes qu’à raconter une histoire positive du développement de ceux-ci. On l’a vu déjà il y a une dizaine d’années avec l’émergence des plateformes comme Facebook ou Google qui se targuaient d’être cool, d’être fraîche, d’être de bon ton, d’aller dans des locaux colorés avec des baby-foot et d’avoir la possibilité de travailler quand on veut.

C’était une sorte de modernité qui surfait sur l’idée d’un épanouissement collectif, même des forces de travail. En réalité, dès le début, il y a eu ce qu’on a appelé des travailleurs du clic. Il y a eu des millions de personnes qui, derrière le moteur de recherche Google, vérifiaient si la requête avait été bien prise en compte par le moteur de recherche et la corrigeaient au besoin.

C’est le principe du « human in the loop », de l’homme dans la boucle algorithmique. Il est soumis à deux pressions.

E.L : Lesquelles sont-elles ?
H.P : La première, c’est d’être effacé du récit. Et pour cela, il y a deux manières de le faire. Un, bien sûr, de ne pas raconter cela mais l’inverse. Et surtout, de leur faire signer des contrats de non-divulgation.

Quand on a fait un premier documentaire, en 2018-2019, qui s’appelait une série documentaire pour France Télévisions, « Invisibles et Travailleurs du Clic », nous avons découvert qu’effectivement, des micro-travailleurs, même pour s’inscrire sur des plateformes, travailler à la tâche, étaient contraints de signer en préalable des contrats de non-divulgation, qui leur interdisait non seulement d’en parler à la presse mais d’en parler également à leurs proches, d’en parler à leur famille, et même de travailler avec un ordinateur dans des lieux publics. Ils ne pouvaient pas aller dans des co-working ou dans des cafés internet. Ils étaient contraints de travailler de chez eux, sans que personne ne puisse les observer.

Et il y a une double fonction à cela. La première, c’est de m’expliquer le récit. Il n’existe pas, il ne peut pas se montrer, personne n’en parle. Par exemple, ce n’est pas parce que ma cousine ou ma tante est à Saint-François qu’elle ne travaille pas pour Google. Elle corrige le moteur de recherche Google. Et cela, nous l’avons vu.

Nous l’avons étudié. Quand nous faisons ce genre de film, nous arrivons à la fin d’une longue chaîne d’études et d’enquêtes, même si nous enquêtons aussi spécifiquement pour le film. Il est important de rappeler que nos films, tant « Invisibles et Travailleurs du Clic » que « Les Sacrifiés de l’IA », s’appuient sur le travail d’universitaires, et le premier rang desquels se trouve Antonio Cassili, qui est le co-auteur de l’essai de film, qui est un sociologue, professeur à l’École politique de Paris, professeur à Cambridge, qui, avec ses collègues universitaires, font depuis des années cette cartographie du travail invisibilisé.

Il a publié un livre qui a un grand succès dans le milieu universitaire et intellectuel, qui s’appelle « En attendant les robots », qui cartographie ce paysage des travailleurs invisibilisés, effacés, et pour autant absolument indispensables au développement de ces technologies.

E.L : On va à l’encontre des droits humains en faisant cela…
H.P : Oui, on contrevient tellement aux droits humains que l’OIT, l’Organisation Internationale du Travail. Il y a les États, les travailleurs et les entreprises. Il y a aujourd’hui un département qui tente de poser cette question, ce problème et de faire en sorte que la violence soit régulée, que la brutalité des conditions de travail, des conditions de rémunération soit enfin prise en compte par les politiques.

E.L : Que font les lobbies des Big Tech ?
H.P : A Bruxelles comme ailleurs, les lobbies des Big Tech sont très présents. Ils imposent toujours davantage ce récit selon lequel, « oui, peut-être qu’il y a eu quelques travailleurs un peu surexploités, mais ne vous inquiétez pas, ces IA vont devenir autonomes, vont finalement pouvoir s’auto-alimenter ». Ce qui est là encore une absurdité, un élément de récit marketing, puisque les IA savent tout faire, sauf s’auto-alimenter. Les rares essais qui ont été faits prouvent qu’elles s’empoisonnent. ChatGPT est brillantissime à mille endroits, mais il ne sait pas reconnaître un chat sur une photo, et il n’a pas été développé comme tel.

Je tiens à rappeler qu’il ne s’agit pas de faire le procès de l’IA en général, mais de distinguer les différentes formes d’IA.

Il y a des IA médicales, des IA frugales, extrêmement intéressantes, qui fonctionnent très bien et qui ne nécessitent pas de tels trilliards de données, réactualisées tous les jours. Elles ne posent pas à la fois le problème de ces centaines de millions de travailleurs, et en même temps de ces stockages de ces données. Il y a celles-ci et les autres, les « Large Language Models » (LLM), les IA généralistes et génératives, celles qui veulent tout faire, du code à l’image en passant par la poésie ou l’analyse de texte. Elles sont problématiques.

E.L : Pourquoi ?
H.P : Elles sont extrêmement voraces, il y a une compétition entre chacune d’entre elles. Ils sont en logique de concurrence, et pour avoir 0,0000001% de performance en plus, il leur faudra autant de milliards de données supplémentaires. Donc autant de dizaines de data centres supplémentaires, donc des dizaines de millions de data workers supplémentaires.

Deuxième chose, c’est très important, je tiens à le dire, c’est que la première revendication des travailleurs de l’IA, c’est de ne pas arrêter l’IA, c’est de dire qu’on doit être traité dignement. Ces sociétés auraient les moyens de les payer normalement, de les traiter normalement. Concernant les contenus toxiques, ils auraient aussi les moyens d’accompagner, de préparer et d’accompagner les data workers.

D’une part, il faut à la fois réguler ces IA génératives ainsi que la production, la manière dont elles fonctionnent, dont elles se nourrissent, et d’autre part distinguer les IA généralistes, celles plus frugales, qui sont plus spécifiques, plus spécialisées.

E.L : C’est bien de faire la distinction
H.P : Oui. C’est important.

E.L: Est-ce qu’on peut imaginer une IA sans sacrifice humain ?
H.P : Oui. Bien sûr. Cependant, il y a mille choses à faire. Les IA grands publics, les IA généralistes, aujourd’hui tel qu’on les voit fonctionner et être produites, sont des versions bêta de ce qui est possible.

L’une d’entre elles, par exemple, serait de demander aux différents acteurs des IA de fédérer leurs outils de production qui travaillent tous avec des data sets différents, avec des normes différentes, pour rendre digestes les trilliards de données qu’on leur injecte quotidiennement. Si on les fédérait, on diviserait l’empreinte écologique et le nombre de travailleurs de ces data centres par le nombre qu’ils sont. Ce ne serait pas absurde. La technologie n’y perdrait pas.

La chose qu’ils pourraient perdre, c’est éventuellement cette mise en concurrence permanente. En revanche, il y aurait une empreinte écologique, l’utilisation de l’eau et une brutalisation des travailleurs bien moindres. Ils seraient moins nombreux.

Et comme ils seraient moins nombreux, ils seraient encore plus facilement mieux payés. Aujourd’hui encore, nous pourrions aussi dire, nous allons imposer à ces big tech d’être transparents sur leur chaîne d’approvisionnement des datas et aussi sur la chaîne humaine.

Et une fois que cela est fait, imposer un salaire minimum décent qui permettrait à ces travailleurs et ces travailleuses de s’en sortir.

E.L : Ce n’est pas le cas aujourd’hui si je comprends bien ?

H.P : Oui, ce qui n’est pas le cas aujourd’hui. Ils sont à peine dans la survivance. Cela aurait bien sûr un effet positif pour les travailleurs et les travailleuses, mais aussi pour les big tech, qui, par conséquent, ne seraient pas là encore contraints d’être dans cette sorte de logique sans limites, de toujours augmenter le nombre de données auxquelles elles veulent avoir accès.

Il y a un autre effet pervers de cette surutilisation des travailleurs dans le Sud global. C’est que les gens que nous avons croisés à Nairobi ont fait de brillantes études, pour beaucoup d’entre eux, qui étaient l’équivalent d’un Bac + 3 et d’un Bac + 4 mais le marché du travail là-bas étant ce qu’il est, ils ne trouvaient pas d’emploi. Pour survivre, ils se sont allés trouver contraints d’être surexploités, à faire du data working toxique ou non. Pendant ce temps-là, ils ne contribueront pas à l’économie de leur pays.

E. L : L’IA est-elle magique ?

H.P : Tout le monde croit spontanément que l’IA est autonome hors-sol et ne coûte rien. Dans le film, nous évoquons par exemple le cloud. De quoi s’agit-il ? C’est quelque chose qui n’a pas d’empreinte.

Nous sommes tous quand même persuadés que tout cela, quand nous faisons une requête sur ChatGPT ou une recherche sur Google, aujourd’hui, comme la réponse est immédiate, est magique. Il y a une forme de magie. Oui, cela coûte. Et cela, il faut le rappeler. Si cela coûte, si cela brutalise, si cela abîme, il faut trouver des solutions.

E.L : Pensez-vous que l’humanité peut être vraiment réduite aux clics ?

H.P : Je n’espère pas que l’humanité soit réduite aux clics. Mais cette question est intéressante. Elle est plutôt bien formulée. Parce qu’effectivement, nous sommes de plus en plus des homonuméricus. C’est-à-dire que, si ce ne sont pas les clics, c’est le swap, c’est le fait de prendre son portable à la main et de passer d’une application à une autre, et d’une image à une autre, et d’un contenu à un autre.

Et vous pourrez considérer que c’est ce vers quoi l’humanité tend, avec une grande angoisse. Parce que l’humanité, c’est avant tout se parler, se rencontrer, discuter, être surpris, c’est sortir de cette bulle informationnelle, c’est vivre, c’est tellement autre chose que de cliquer, tellement autre chose. Mais évidemment, nous sommes face à des capitaines d’industrie aux Etats-Unis, les patrons des big tech, qui ont, quand même pour la plupart, qui ont une formation d’ingénieurs.

Ce sont des gens qui ont appris à optimiser des systèmes. Leur corpus initial est celui qui consiste à apprendre à optimiser un système, à optimiser des systèmes mécaniques, des systèmes numériques, des systèmes algorithmiques, mais également des systèmes financiers, des systèmes à optimiser des dividendes, optimiser. Et l’un des grands axes d’optimisation, c’est le temps d’attention capté par les humains sur la planète par les plateformes et les algorithmes. Il faut garder le temps le plus possible.

E. L : Votre film rappelle que l’IA a un visage. Qu’attendez-vous du spectateur ?

H.P : Déjà, qu’il en prenne compte et qu’il rentre en empathie avec la réalité humaine de ces gens qui souffrent. Il y a aussi le fait de se dire qu’aujourd’hui, c’est dans les pays du Sud que les gens sont très majoritairement brutalisés, même si en France, on a 300.000 travailleurs du clic. D’ailleurs, les chiffres sont très peu accessibles. Ce sont des compilations, puisqu’encore tout est fait pour les masquer.

Ce n’est pas parce que cela se passe dans les pays du Sud aujourd’hui qu’il ne faut pas s’inquiéter de la menace que cela puisse se passer également en Occident, dans les pays de l’OCDE, dans les années, voire décennies qui viennent. Je pense que, comme il y a un rapport de force, sans limite, de l’autre côté, avec une brutalité infinie, et des moyens colossaux.

Aujourd’hui, Elon Musk, l’homme le plus riche de la planète, a un pouvoir financier à l’échelle de la planète qu’aucun homme sur Terre n’a jamais eu. Il est sans limite. Sa seule limite, c’est le fait qu’un jour, comme nous tous, il mourra. Et c’est pour cela aussi qu’il se réfère à cette espèce de nouvelle philosophie transhumaniste où il imagine une sorte d’immortalité.

Il ne supporte pas que cette limite-là existe puisque toutes les autres ont explosé pour lui. Simplement, il y a aussi une autre limite qu’il ignore, c’est le fait que la Terre a des limites. Et tout le délire spatial de conquête de Mars et de station orbitale, c’est un délire complet qui ne fait que prolonger cette espèce d’égotisme fou de cet homme dont le volume financier lui donne l’illusion d’être tout-puissant. Alors finalement, c’est un humain parmi les autres. Il serait bien qu’il le sache.

E.L : Qu’est-ce qui vous a fait le plus réfléchir lors de ce travail documentaire ?

H.P : Je pense que l’ensemble m’a fait réfléchir. J’ai continué à le faire, d’ailleurs parce que c’est un film que j’ai terminé il y a un peu moins d’un an dans la continuité de l’élection de Donald Trump qui n’est pas une bonne nouvelle pour les data workers et pour le reste de la planète. Aujourd’hui, il continue à voyager, à être discuté, à être montré. Il a été acheté dans de nombreux pays dans le monde. J’interviens assez régulièrement en Europe et ailleurs pour en parler.

Ce qui me fait réfléchir, c’est vraiment au-delà même du scandale du data working, des traumatisés du data working, des sacrifiés de l’IA, c’est qu’il y a ce rapport de force très en défaveur de ceux qui luttent pour les droits humains. Je vois la toute-puissance des technologies, des big tech américaines, aidées par Trump et son administration. Et dans le même temps, je vois émerger un début de coalition, des honnêtes gens qui, prenant conscience de cette réalité, commencent à essayer de faire quelque chose.

J’ai été très touché par exemple lors de ma venue à Luxembourg, de voir les gens de la Fondation Partage à Luxembourg, prenant conscience de cette réalité et de vouloir agir. Il y a des politiques qui commencent à vouloir agir, des syndicalistes et des ONG qui veulent agir. Il y a ceux touchés par le film et ceux qui le découvrent et qui ne veulent pas en rester là.


En savoir plus sur Ecorama Luxembourg

Abonnez-vous pour recevoir les derniers articles par e-mail.