Des IA et des Hommes

ENTRETIEN avec Paola Tubaro. Santé, alimentation, travail, etc. Il n’est pas un domaine dans lequel l’IA n’est pas présentée comme la grande révolution à venir. Derrière le fantasme d’une forme nouvelle et inédite d’intelligence automatique se cachent pourtant, en coulisses, des jeux d’acteurs et de pouvoir sur fond de travail dissimulé. La chercheuse Paola Tubaro nous en dit plus sur ces travailleurs de l’ombre sans lesquels toute “Intelligence artificielle” serait en incapacité de fonctionner.

On observe un emballement autour de l’IA. Comment l’expliquer ?

Paola Tubaro : L’emballement autour de l’IA commence par un glissement sémantique qui opère depuis quelques années. Avant on parlait de big data, d’algorithme et maintenant c’est l’IA qui est sur toutes les lèvres. Il s’agit pourtant bien de la même chose ! Cette révélation récente autour de l’IA cache donc une technologie qui, elle, n’est pas si récente : le machine learning ou apprentissage automatique en français. Cette technique permet aux algorithmes d’analyser les données et leur régularité et de repérer des corrélations, par exemple entre les compétences des personnes et le diplôme qu’elles ont obtenu. C’est de ces corrélations qu’ils déduisent les règles à appliquer : si telle personne a fait telle école, alors elle doit être recrutée. C’est cette technologie-là qui génère tant de fantasmes autour d’une forme d’“intelligence” nouvelle.

Pour les entreprises ayant recours à de l’IA, reconnaître qu’elles s’appuient sur des travailleurs serait très embarrassant : en tant qu’utilisateur, on pense parler à une machine, pas à un humain qui nous écouterait depuis l’autre bout du monde ! 

En quoi cette technologie est-elle intelligente ?

P. T. : On associe l’apprentissage automatique à une forme d’intelligence car les algorithmes apprennent par eux-mêmes, comme un enfant qui après avoir vu deux chiens saura reconnaître le troisième et les suivants. Il aura intégré les caractéristiques propres aux chiens, au-delà de leurs différences. En cela, l’apprentissage automatique diffère du fonctionnement classique des algorithmes qui associent de façon systématique une condition “si” à une décision “alors”. La décision prise par l’algorithme d’apprentissage automatique résulte d’observations a posteriori et non pas d’une règle posée a priori. Dans les années 80, cette technologie était limitée par les capacités computationnelles des ordinateurs de l’époque et le manque de données disponibles. Aujourd’hui, ces freins ont été levés, ce qui soulève d’ailleurs de nouvelles questions et problèmes. En s’appuyant sur de grandes quantités de données, l’apprentissage automatique reproduit des discriminations incorporées dans ces informations. C’est le premier problème. 

Sur cette question du risque de fonctionnement biaisé des algorithmes, les entreprises se dotent de départements éthiques pour y remédier... Qu’en pensez-vous?

P. T. : Ces départements sont en réalité surtout un moyen de s’auto-réguler, et donc d’échapper à une régulation extérieure qui serait vraisemblablement plus dure pour ces entreprises. Le licenciement récent de la chercheuse Timnit Gebru, qui travaillait sur l’éthique de l’IA chez Google, montre bien que ces engagements en faveur de l’éthique sont somme toute limités. Le problème, c’est bien que ces entreprises, et notamment les plus grosses, échappent à tout contrôle démocratique. Cela m’amène au second problème posé par les algorithmes d’apprentissage automatique qui s’appuient sur des quantités de données toujours plus massives. Pour fonctionner, ils nécessitent de nombreux travailleurs de l’ombre. C’est la face cachée et laborieuse de l’IA.

Comment expliquer notre croyance dans des algorithmes 100% automatisés, et donc notre méconnaissance de l’arsenal humain qu’ils nécessitent pour fonctionner ?

P. T. : Il faut déjà préciser les différents types de travailleurs derrière ces IA. Il y a ceux, très en amont, qui annotent des images pour permettre aux véhicules autonomes de reconnaître des panneaux et s’orienter dans une ville, ou bien qui enregistrent leur voix pour entraîner des assistants vocaux par exemple. Plus en aval, il y a d’autres travailleurs qui traitent en temps réel des questions que des IA n’arrivent pas à résoudre. Une commande vocale émise par un usager quelque part dans le monde qui serait peu explicite par exemple. 

Une fois cette précision établie, on peut distinguer deux principales causes d’invisibilisation de ces travailleurs. D’un côté, il y a un enjeu réputationnel des entreprises qui commercialisent ces IA. Elles ont tout intérêt à faire perdurer dans l’imaginaire des consommateurs l’idée d’algorithmes totalement automatisés, synonymes de leur surpuissance technologique. A l’inverse, reconnaître qu’elles s’appuient sur des travailleurs pour fournir ces services serait très embarrassant, en particulier pour les assistants vocaux comme Alexa ou Siri. En tant qu’utilisateur, on pense parler à une machine, pas à un humain qui nous écouterait depuis l’autre bout du monde ! Sur ce point là, les conditions d’utilisation de ces services ne sont pas très claires. Il est mentionné que les interactions avec l’outil sont utilisées pour améliorer le service mais les conditions dans lesquelles cela se produit ne sont pas explicitées. De l’autre côté, il s’agit d’une stratégie de commercialisation. Les entreprises qui vendent des données à ces producteurs d’IA proposent un package complet. Elles ne précisent pas comment les données permettant d'entraîner les algorithmes ont été obtenues, ni combien elles ont été payées, ni dans quelles conditions les travailleurs les ont traitées.

Certains travailleurs de l’IA ne savent même pas que ce qu’ils font est du travail ! 

Cet argument commercial n’est-il pas également lié à une raison d’ordre économique ?

P. T. : Dissimuler le travail de ces personnes, c’est aussi un moyen d’optimiser les coûts. Car même si ces entreprises font travailler des gens dans des pays à salaire faible, puisqu’elles ont besoin de grosses masses de données, cela finit par coûter cher. Nier le fait que les différentes tâches effectuées par des humains sur les données constitue du travail permet de s’affranchir du droit du travail et des coûts afférents.

Finalement, qu’est-ce qui change entre les prolétaires des usines du XIXe siècle et cette nouvelle classe précaires des travailleurs de l’IA ?

P. T. : Là où les travailleurs des plateformes comme les livreurs à vélo ont un endroit pour se rassembler dans la vraie vie, dans la rue et devant les restaurants, les travailleurs de l’IA sont souvent isolés. Ils n’ont pas l’occasion de se rencontrer et d’organiser des solidarités entre travailleurs. Nous avons parlé à certains d’entre eux qui ne savaient même pas que ce qu’ils faisaient étaient du travail ! Bien souvent, ils n’ont eu que des interactions avec la plateforme qui les emploie, un système donc, et jamais avec des représentants humains de leurs clients finaux. Ils sont victimes d’isolement, de perte de sens, de difficultés à juger de leurs propres actions. Les risques psycho-sociaux associés à cette atomisation des travailleurs peuvent être grands pour ceux qui font ce travail comme activité principale et non pas comme un à-côté. Face à ce constat, Amazon Mechanical Turks a ouvert il y a quelques années un espace pour que les travailleurs parlent des difficultés liées à leur travail, se partagent des informations, etc. Mais ce genre d’initiative est rarissime. Le plus souvent, toute forme de collaboration et d’organisation entre travailleurs, qu’ils s’agisse d’un forum, d’une chaîne Youtube ou autre, est censurée par ces plateformes.

Pour protéger les données personnelles des utilisateurs, il faut encadrer et protéger les travailleurs de l’IA.

Avec les confinements successifs, on a vu le télétravail se généraliser. Peut-on craindre que ce mouvement de précarisation et d’atomisation des travailleurs touche l’ensemble des catégories socio-professionnelles, y compris les cadres ?

P. T. : En réalité, ce n’est pas si simple. Premièrement, cela dépend du secteur considéré. Dans le domaine médical par exemple, faire analyser une radio d’un patient français par un médecin indien inscrit sur une plateforme de micro-travail, cela pose des problèmes de protection des données à caractère personnel. Grâce au RGPD (Règlement Général sur la Protection des Données), ces pratiques ne sont pas vraiment répandues en France mais davantage dans d’autres pays. Deuxièmement, il y a le sujet de la qualité du travail délivré. Pour les assistants vocaux par exemple, on constate que le pays de résidence des micro-travailleurs et la connaissance de la culture locale sont scrutés de près. Certaines tâches de micro-travail sont ainsi disponibles uniquement dans certains pays. Parfois, il est même nécessaire de passer des épreuves pour justifier de son niveau de maîtrise de la langue et donc, de son aptitude en tant que travailleur de l’IA. Donc certes, les questions d’optimisation des coûts jouent mais pas uniquement. Les bases linguistiques, culturelles et institutionnelles des travailleurs jouent beaucoup, et parfois sont un frein au recours au micro-travail. 

Dans un de vos derniers articles, vous soutenez que pour “protéger la privacy des utilisateurs, il faut protéger les travailleurs des données”. Pourquoi ?

P. T. : Les technologies d’IA sont basées sur des intrusions en chaîne, et les travailleurs sont doublement concernés. Si l’on prend l’exemple des assistants vocaux, en amont, les micro travailleurs enregistrent leur voix, une donnée reconnue comme personnelle par le RGPD, pour entraîner les IA. Ils sont alors écoutés. En aval, d’autres travailleurs écoutent à leur tour les voix des utilisateurs pour suppléer aux IA lorsqu’elles sont défaillantes. Et pourtant, nous avons rencontré des travailleurs de plateforme qui n’avaient jamais signé d’accord de confidentialité pour les propos qu’ils entendent. C’est à la fois inquiétant pour eux, car ils sont responsables, et pour les utilisateurs dont les conversations peuvent être écoutées par n’importe qui, en dehors de tout cadre juridique. Certaines recherches en informatique promettent de limiter ces risques. Mais à ma connaissance, ces travaux ne sont aujourd’hui pas assez mûrs. D’autant que nous pourrions ajouter un troisième facteur de risque : la démultiplication des flux de données personnelles entre des travailleurs de l’IA dispersés aux quatre coins du monde. Cela augmente les possibilités de piratage et donc de rupture de confidentialité pour ces données. Pour protéger les données personnelles des utilisateurs et des travailleurs, il faut donc commencer par encadrer et protéger ces derniers.

Merci à Samuel Roumeau qui a contribué à finaliser cet l'entretien.

____


Sociologue et économiste, Paola Tubaro est directrice de recherche au CNRS au sein du Laboratoire de recherche en informatique. Elle mène des recherches interdisciplinaires visant à éclairer des phénomènes socio-économiques complexes à l’aide de la science des données, de la simulation informatique multi-agents et de l’analyse de réseaux sociaux.

____

Sur le même sujet:

> Entretien avec Thomas Berns :"Gouverner par les nombres pour mieux régner"

> Entretien avec Eric Guichard : Plus qu’une ressource, le numérique est une forme violente d’exploitation

> "Faire du numérique un choix de société"