Intelligence Artificielle

Amazon ordonne à un chauffeur de poursuivre les livraisons malgré un incendie de forêt ravageur

Amazon ordonne à un chauffeur de poursuivre les livraisons malgré un incendie de forêt ravageur

Au volant de sa petite fourgonnette, un livreur d’Amazon sillonnait les collines boisées autour de Big Bear Lake, en Californie. Au fil des arrêts, la fumée s’épaississait. En consultant l’application Amazon Flex, il a compris que son itinéraire traversait de plein fouet un incendie en cours. Il a prévenu la répartition, pensant être rappelé au dépôt. La réponse a été brève: faire «au mieux» et livrer ce qui est possible. Refuser signifiait risquer des sanctions — formation imposée sur son temps libre, baisse d’heures, voire licenciement. Ironie mordante: son travail est suivi en continu par une panoplie de capteurs, d’applications et de caméras intelligentes; mais signaler un danger réel semblait, lui, tomber dans le vide.

Un contrôle numérique tentaculaire qui oublie la sécurité

Amazon s’appuie sur une batterie d’outils — Flex, eDriving Mentor, DSP Workplace, capteurs de ceinture, caméras Netradyne, optimisation d’itinéraires — pour suivre chaque geste des conducteurs, des freinages aux pauses, avec des alertes à chaque écart. Pour des centaines de milliers de chauffeurs, ce filet numérique se veut un gage de sécurité et de performance. Dans la pratique, il sert surtout à maintenir une discipline permanente.

Le Distributed AI Research Institute (DAIR), dirigé par Timnit Gebru, a enquêté longuement sur ce modèle de gestion par algorithmes. D’après ses entretiens avec des livreurs à travers les États-Unis, ces dispositifs créent un filet de surveillance qui protège d’abord l’entreprise, pas les personnes. Le message sous-jacent est clair: Amazon rêve d’automatisation totale et, d’ici là, traite ses livreurs comme des exécutants standardisés, sans marge d’appréciation humaine.

Le modèle DSP: externaliser le risque, garder la main

Plutôt que d’employer directement, Amazon s’appuie sur des DSP (partenaires de service) qui recrutent, gèrent et licencient les chauffeurs. Ce montage réduit les coûts d’Amazon (pas d’avantages, d’uniformes ou d’équipement à financer) tout en lui laissant une influence décisive via ses outils de contrôle. Les DSP, eux, veulent limiter la rotation et préserver la sécurité (ne serait-ce que pour l’assurance), mais se heurtent aux exigences d’hyper-vitesse de la plateforme. En cas de conflit, Amazon impose souvent sa ligne ou écarte le partenaire.

Caméras et applis: quand l’IA distribue des sanctions absurdes

Les caméras Netradyne, présentées comme des outils de prévention, sanctionnent fréquemment des comportements normaux. Des livreurs signalent des «distractions» inventées alors qu’ils regardent la route, ou des alertes qui poussent à freiner brutalement au feu jaune pour éviter un «rouge» détecté, au mépris de ce qui se passe derrière. Apprendre les «règles» implicites de la machine devient un jeu dangereux.

Autre problème massif: la vie privée. La pression pour maintenir des cadences élevées, ajoutée à des caméras dans la cabine et parfois à l’arrière, rend les besoins physiologiques compliqués à gérer. Les récits d’uriner dans une bouteille — faute de temps ou d’endroits sûrs — se multiplient, aggravés par la crainte d’être vu, noté, réprimandé.

S’y ajoutent les contradictions entre systèmes. Un conducteur qui freine d’urgence pour éviter un camion à contresens est «sauvé» par la vidéo Netradyne… mais perd des points sur Mentor, l’application qui calcule un score de conduite via GPS. Personne ne sait comment contester efficacement, ni comment réparer un score chuté par un événement hors de son contrôle. Et si un capteur de ceinture se dérègle, le compteur d’infractions explose: certains finissent remerciés en quelques jours, malgré le signalement de la panne.

Des signalements qui ne changent rien

Sur le terrain, les chauffeurs remplissent des questionnaires en fin de tournée pour remonter dangers, adresses erronées ou itinéraires absurdes. D’après d’anciens livreurs, ces retours ne produisent aucune correction visible. Amazon a tenté un formulaire d’escalade baptisé Project Cheetah, censé accélérer la résolution des problèmes. Dans les faits, le dispositif paraît opaque, lent, et peu fiable — certains le voient surtout comme un outil de repérage des équipes prêtes à s’organiser collectivement.

Quand les requêtes concernent des clients dangereux — insultes, menaces, armes — la réponse est tout aussi décevante. Des chauffeurs affirment qu’Amazon promet de blacklister des adresses à risque… puis laisse les livraisons se poursuivre. Les travailleurs en première ligne affrontent alors des situations violentes sans contrepartie concrète.

Le paradoxe d’un géant obsédé par l’automatisation

Amazon veut livrer vite, à bas coût, et avec un contrôle millimétré. Tant que les robots ne peuvent pas remplacer les humains, la société pousse les conducteurs à suivre les instructions des algorithmes, tout en niant être leur employeur. Résultat: cadences dangereuses, contestation étouffée, et responsabilités diffusées entre la plateforme et les DSP.

Ce que propose le DAIR pour inverser la logique

Le rapport du DAIR avance cinq pistes concrètes:

  • Tenir Amazon juridiquement responsable des conditions de ses livreurs, et pas seulement les DSP.
  • Réduire fortement la surveillance au travail, en supprimant les capteurs intrusifs et les caméras superflues.
  • Soumettre la planification algorithmique des tournées à un contrôle humain strict, voire la confier à des planificateurs humains.
  • Permettre aux chauffeurs de signaler des clients problématiques sans crainte de représailles, avec un engagement réel d’exclusion de ces adresses si nécessaire.
  • Instaurer une révision humaine des plaintes et des sanctions, au lieu de laisser des scores et des IA décider sans recours.

Mettre en œuvre ces mesures suppose de privilégier la sécurité et la dignité des travailleurs avant la marge. Pour l’instant, tout indique que l’entreprise n’y voit que des coûts.

Sur le terrain: quand la technologie ignore le feu

Revenons au livreur confronté à l’incendie. Les algorithmes continuaient d’optimiser sa tournée alors que la route brûlait. La répartition l’a invité à «livrer ce qu’il peut». Avec la peur de perdre son poste, il a avancé jusqu’à la lisière du danger. Voilà le cœur du problème: une surveillance sophistiquée capable de repérer le moindre écart, mais incapable — ou peu désireuse — d’interrompre une tournée manifestement périlleuse.

FAQ

Comment un livreur peut-il documenter une sanction injuste liée à l’IA?

  • Conserver des captures d’écran des notifications, télécharger les clips vidéo pertinents (si accessible), noter l’heure exacte, le lieu et les circonstances, et demander une révision humaine écrite. Multiplier les canaux (DSP, support Amazon, courriels) pour laisser des traces datées.

Les caméras embarquées améliorent-elles parfois la sécurité?

  • Oui, elles peuvent innocenter un conducteur après un incident et fournir des éléments objectifs. Le problème survient quand l’entreprise privilégie le score automatique à l’analyse humaine, ou quand l’usage dérive vers la micro-surveillance permanente.

Que faire si un itinéraire traverse une zone sinistrée ou dangereuse?

  • Contacter immédiatement la répartition, demander un itinéraire alternatif, documenter le danger (photo/vidéo si possible sans risque), et solliciter une confirmation écrite de la consigne. En cas de refus, faire valoir le droit de retrait localement applicable et informer le DSP.

Quelles autorités peut-on saisir aux États-Unis en cas de risque ou de représailles?

  • Selon la situation: OSHA pour la sécurité au travail, le NLRB pour les questions de représailles liées à l’organisation collective, et les agences locales de transport ou de travail. Consulter un avocat du travail peut accélérer la démarche.

L’automatisation totale des livraisons est-elle proche?

  • À court terme, non. Les robots et véhicules autonomes progressent, mais les contraintes réelles (infrastructures, environnement urbain, responsabilité, interactions humaines) freinent une adoption généralisée. D’ici là, améliorer les règles, la supervision humaine et les conditions de travail reste indispensable.
Quitter la version mobile