L’éclat de l’IA, et ce qu’on ne voit pas
L’intelligence artificielle amuse, fascine et crée sans relâche: vidéos virales, voix de célébrités recréées, playlists infinies, podcasts générés à la chaîne. Derrière cet apparent miracle technologique, un coût bien plus discret se cache: des ressources énergétiques colossales et une main-d’œuvre invisible qui façonne, nettoie et alimente ces systèmes pour qu’ils fonctionnent.
Le coût environnemental et énergétique
Former et faire tourner les grands modèles d’IA exige une énergie considérable. Les centres de données consomment électricité et eau, et l’empreinte carbone de l’IA, agrégée à l’échelle mondiale, pousse vers un niveau de pollution digne d’industries lourdes. Autrement dit, les prouesses algorithmiques s’appuient sur une infrastructure matérielle énergivore, souvent éloignée des regards.
Une industrie tenue par une main-d’œuvre invisible
Au-delà de l’énergie, un second pilier soutient l’IA d’aujourd’hui: un chantier humain gigantesque où des travailleurs précaires, principalement dans des pays à faibles revenus, accomplissent des tâches répétitives mais essentielles.
Ce que recouvre l’annotation de données
Pour qu’un chatbot décrive une scène, rédige un rapport ou filtre du contenu, il a besoin d’exemples nets et bien classés. C’est le rôle de l’annotation de données: trier des images, transcrire des fragments audio, signaler ce qui est violent ou trompeur, corriger des textes, comparer des réponses de modèles, etc. Sans ces milliers de microdécisions, l’IA reste confuse, imprécise, voire dangereuse.
Conditions de travail et risques psychologiques
De nombreux travailleurs interrogés par la presse internationale décrivent des horaires éprouvants, une pression permanente sur les délais, une rémunération faible et irrégulière, ainsi qu’une exposition répétée à des contenus graphiques (scènes de crime, violence, images traumatisantes). Selon des témoignages rapportés, les protections sont rares et le soutien en santé mentale quasi absent, avec, à la clé, anxiété, troubles du sommeil, douleurs oculaires et dorsales.
La chaîne d’intermédiaires
L’un des angles morts de cette économie tient à sa structure: les grandes entreprises d’IA ne recrutent généralement pas directement ces travailleurs. Elles externalisent à des sous-traitants qui, eux-mêmes, s’appuient sur un réseau de plateformes et de microcontrats.
Des géants de la tech aux sous-traitants
Des acteurs majeurs comme OpenAI, Google, Meta ou des clients institutionnels, y compris des agences gouvernementales, s’appuient sur cette chaîne d’intermédiaires. Dans plusieurs pays (Kenya, Colombie, Inde, entre autres), le travail d’annotation est peu ou pas encadré par la loi, ce qui laisse la porte ouverte aux abus: contrats flous, retards de paiement, absence d’avantages sociaux.
Exemple cité par la presse: Scale AI et Remotasks
D’après des reportages de l’Agence France-Presse, des entreprises comme Scale AI — via des entités telles que Remotasks — jouent un rôle central dans ce marché. Des travailleurs affirment avoir été payés environ un centime de dollar par tâche, certaines prenant des heures à compléter. Des témoignages comparent ces pratiques à une forme d’esclavage moderne, en raison de la faiblesse des rémunérations, des journées interminables et de l’incertitude du paiement final. Ces allégations soulignent un modèle économique où le coût humain est compressé au maximum au profit de la rapidité et de l’ampleur.
Que peut faire le public ?
Le premier levier est la conscience de cette réalité: chaque fois que l’on lance un chatbot — ChatGPT, Grok ou un autre — on mobilise un socle de travail humain considérable. Exiger de la transparence (rémunérations, protections, modération des contenus) et encourager les acteurs qui s’engagent sur des standards clairs (salaires décents, audits indépendants, soutien psychologique) peut contribuer à faire évoluer les pratiques. La pression des utilisateurs, des clients et des régulateurs reste un moteur important du changement.
En bref
- Les prouesses de l’IA reposent sur une consommation énergétique élevée et sur une main-d’œuvre mondialisée chargée d’annoter et de filtrer des données à grande échelle.
- Des enquêtes de presse décrivent un univers de sous-traitance opaque, des salaires très bas et une exposition régulière à des contenus traumatisants.
- Reconnaître ce coût humain et demander des garanties éthiques est indispensable si l’on veut des systèmes réellement bénéfiques.
FAQ — Questions fréquentes
Comment fonctionne concrètement l’annotation de données ?
Un client envoie des lots (images, textes, vidéos) à une plateforme. Des annotateurs suivent des consignes détaillées: décrire une image, classer la tonalité d’un message, repérer de la désinformation, corriger une réponse d’IA. Ces retours servent à entraîner, ajuster ou évaluer les modèles.
Pourquoi ces tâches sont-elles concentrées dans certains pays ?
Le coût du travail y est plus faible, la population est souvent anglophone ou multilingue, et l’accès à Internet s’est généralisé. L’absence ou la faiblesse de réglementations facilite aussi l’implantation de plateformes de microtravail.
Peut-on réduire la dépendance à cette main-d’œuvre ?
Des techniques comme l’apprentissage auto-supervisé, la donnée synthétique ou la surpervision faible diminuent la quantité d’annotation nécessaire. Mais elles ne l’éliminent pas: pour la sécurité, l’éthique ou les contenus sensibles, l’œil humain reste crucial.
Quels signes indiquent qu’un fournisseur d’IA est plus responsable ?
Transparence sur la chaîne d’approvisionnement, audits indépendants, salaires minimums garantis, délais de paiement clairs, soutien psychologique, publication d’indicateurs (taux de litige, temps moyen de paiement, politiques de modération).
Que peuvent demander les utilisateurs et clients d’entreprises d’IA ?
Des clauses sociales dans les contrats, la publication d’un rapport d’impact annuel, l’engagement à payer des salaires décents dans tous les pays concernés, et la mise en place de procédures de recours accessibles aux travailleurs sous-traités.
