Les plus grandes entreprises de la tech rêvent d’un avenir proche où l’IA remplacera une grande partie du travail humain, libérant ainsi un plus grand potentiel d’efficacité et de productivité. Mais cette vision ne tient pas compte du fait qu’une grande partie de ce que nous considérons comme de l’intelligence artificielle est en réalité alimentée par un travail humain fastidieux et mal rémunéré. « Pour moi, l’un des mythes autour de l’IA est de croire qu’elle fonctionne réellement de façon autonome. Actuellement, le travail humain compense beaucoup de lacunes dans le fonctionnement de ces systèmes », affirme à Motherboard Laura Forlano, professeur associé de design à l’Institut de design de l’Illinois Institute of Technology.« D’un côté, l’industrie peut prétendre que tout ça arrive un peu comme par magie dans les coulisses, ou qu’une grande partie de ce qui se passe est du ressort de l’informatique. Mais nous savons que dans de très nombreux cas, qu’il s'agisse du contenu en ligne, de la façon de faire fonctionner un véhicule autonome ou des appareils médicaux, le travail humain est utilisé pour combler les lacunes de ces systèmes. »Les personnes comme Kauffman, qui contribuent à créer les matières premières utilisées pour former ces systèmes, ont rarement une idée de ce que leur dur labeur servira à créer.« On entend très rarement une grande entreprise tech reconnaître la main-d’œuvre invisible qui se cache derrière une grande partie de cette technologie »
« Le public n’a pas conscience du fait qu’il s’agit d’une chaîne d’approvisionnement mondiale qui contient des flux et des relations géographiques inégales. Elle repose sur une énorme quantité de travail humain », explique à Motherboard Kelle Howson, chercheuse au sein du projet Fairwork à l’Oxford Internet Institute.« Lorsqu’il y a ces relations d’externalisation du travail vers une main-d’œuvre à bas salaire et des pays à faible revenu, cela se double souvent de rapports d’exploitation, de moins bonnes protections et de moins bonnes conditions. »
Des entreprises comme Meta justifient l’externalisation de la main-d’œuvre dans les pays moins développés en avançant faire ce qu’elles appellent de l’« impact-sourcing », c’est-à-dire lorsque les entreprises embauchent intentionnellement des travailleurs issus de populations défavorisées ou vulnérables pour leur offrir des opportunités qu’ils n'auraient pas autrement. Mais les experts avertissent que derrière cette pratique se cachent des conditions de travail dangereuses et contraires à l’éthique, sans réglementation et sans redistribution du pouvoir.« S’il existe des protections du travail et la juridiction des travailleurs, il est incroyablement difficile de les faire respecter, lorsque le client est dans un autre pays, et que la plateforme se trouve dans un pays tiers »
Lorsque Motherboard a demandé à la plateforme de crowdworker Clickworker, qui commercialise AI Solutions comme l’un des principaux demandeurs sur sa plateforme, comment elle s’assure que les travailleurs sont en mesure de vocaliser tout mauvais traitement reçu de la part d’un client, un porte-parole a répondu : « Ce genre de situation ne peut pas se produire chez nous, car les travailleurs Clickworker n’ont aucun contact avec le client et toute la gestion est assurée par nos soins. » « Il s’agit là encore d’une conséquence de cette discrimination géographique permise par un marché du travail à échelle mondiale. Les clients et les travailleurs se connectent directement presque en temps réel en établissant ces contrats à court terme, puis ils passent à autre chose », explique Howson. « En tant que micro-travailleur, il est non seulement incroyablement difficile, mais aussi bien souvent inutile de contester ces cas lorsqu’ils se produisent. Bien souvent, le travailleur ne consacre que quelques minutes à une tâche. S’il n’est pas payé, cela prend beaucoup plus de temps de passer par la procédure standard de la plateforme ou les mécanismes de médiation, que de simplement passer à la tâche suivante. »« De par mon expérience avec Amazon Mechanical Turk, j’ai pu constater que des robots et des personnes donnaient de fausses réponses aux questions. Ces dynamiques ont certainement une influence sur la qualité de ces ensembles de données. »
« Il y a un fossé entre les connaissances des informaticiens sur le système et celles que les sociologues, en ce sens qu’ils ont des objectifs très différents », explique Forlano. « Et donc, même au sein des communautés qui travaillent sur l’IA, on a pu lire dans de nombreux journaux grand public que les informaticiens qui travaillent sur ces systèmes ne savent pas toujours comment les systèmes arrivent à leurs conclusions. »Mais Forlano souligne que le problème est plus profond, et ne peut être résolu en ajoutant simplement plus de données pour améliorer le système. « L’une des conclusions logiques que l’on pourrait tirer serait que si l’on ajoute plus de données correctes aux systèmes, ceux-ci finiront par s’améliorer. Mais c’est une erreur. Ce n’est pas une question de quantité. »En mettant en évidence les façons dont le travail humain porte une grande partie du processus d’IA, les experts et les chercheurs en IA espèrent démanteler cette mentalité du « aller vite et tout casser » qui régit les processus technologiques et exploite les travailleurs externes. Tout le monde s’accorde sur le fait que les humains feront toujours partie de l’IA, pour le développement de modèles ou pour la vérification de certains biais et erreurs. Ainsi, les experts en IA soutiennent que l’accent devrait être mis sur la façon de décoloniser le processus de développement de l’IA et d'inclure les humains d’une manière éthique et durable. « Nous devons penser sérieusement à la main-d’œuvre humaine dans la boucle qui pilote l’IA. Cette main-d’œuvre mérite d’être formée, soutenue et rémunérée pour s’être tenue à la disposition et être prête à faire un travail important que beaucoup pourraient trouver fastidieux ou trop exigeant », ont écrit Mary L. Gray et Siddharth Suri, auteurs de Ghost Work : How to Stop Silicon Valley from Building a New Global Underclass, un article publié en 2017 pour la Harvard Business Review.Parmi les mesures concrètes recommandées par les auteurs, citons l’exigence d’une plus grande transparence de la part des entreprises de la tech, la création de politiques qui améliorent les conditions de travail et les salaires des apprentissages de données, et l’offre aux travailleurs de formations qui leur permettent de contribuer aux modèles d’IA autrement que par l’étiquetage. Marie-Therese Png, doctorante à l’Oxford Internet Institute et stagiaire de recherche à DeepMind Ethics and Society, a proposé dans ses recherches que le processus de gouvernance de l’IA soit restructuré pour inclure le Sud en tant que « co-gouverneur ». Il faut donc reconnaître les déséquilibres de pouvoir hérités de la colonisation qui sont reproduits dans le processus de l’IA et donner aux acteurs des pays en développement une influence sur « la détermination des priorités, la prise de décision et le pouvoir sur les ressources. »Cela rejoint ce que Forlano et ses co-auteurs soutiennent dans leur article. Ils décrivent une mentalité de « conçu avec » plutôt que de « conçu pour », qui fait que les entreprises manquent de conseils et de représentation des groupes qui sont affectés par le système d’IA. « Les experts comprennent souvent mal la façon de concevoir des processus participatifs efficaces ou d’engager les bonnes parties prenantes pour obtenir les résultats souhaités », écrivent les auteurs. « Les ateliers de participation peuvent devenir performatifs, lorsque les experts ne prennent pas réellement en considération les besoins ou les recommandations des différents groupes concernés. » Les auteurs de l’étude suggèrent que tous les participants à l’apprentissage de l’IA devraient être reconnus et rémunérés, ce qui donne aux utilisateurs quotidiens la possibilité d’opter ou non pour des pratiques de travail en ligne gratuites qui formeraient un système d’apprentissage automatique (ML). S’ils choisissent de participer, ils devraient être rémunérés en conséquence ou bénéficier de mesures incitatives. « Les gens devraient être rémunérés pour le travail qui participe à l’amélioration de ces systèmes », estime Forlano. « Et si cela n’est pas fait de manière équitable, c’est juste une autre forme d’exploitation. »VICE France est sur TikTok, Twitter, Insta, Facebook et Flipboard.« L’une des conclusions logiques que l’on pourrait tirer serait que si l’on ajoute plus de données correctes aux systèmes, ceux-ci finiront par s’améliorer. Mais c’est une erreur. Ce n’est pas une question de quantité. »
VICE Belgique est sur Instagram et Facebook.