Ce récit parle d’illusions technologiques, de travail invisible et de la manière dont certaines startups privilégient l’apparence du progrès plutôt que le progrès réel. De la Vienne du XVIIIe siècle aux assistants de réunion « intelligents », l’histoire se répète, simplement avec des outils différents.
Un ancêtre spectaculaire de la supercherie technologique
Au XVIIIe siècle, à Vienne, l’ingénieur hongrois Wolfgang von Kempelen présente un automate qui fascine l’aristocratie: une grande boîte censée jouer aux échecs de manière autonome. Ce « Turc mécanique » affronte et bat des personnalités célèbres, comme Benjamin Franklin ou Napoléon Bonaparte. L’illusion fonctionne parce que le dispositif, rempli de faux engrenages et de mécanismes trompeurs, masque la présence d’un maître d’échecs caché à l’intérieur. Lorsque le secret est révélé bien plus tard, la magie s’effondre — mais la leçon reste: on peut faire passer un tour de passe-passe pour de la technologie de pointe si l’emballage est convaincant.
Des héritiers modernes: quand l’IA cache des humains
Aujourd’hui, les vitrines ont changé, mais la logique demeure. Certaines innovations présentées comme « pilotées par l’IA » reposent en réalité sur des travailleurs mal payés qui corrigent, taguent, ou exécutent discrètement les tâches promises comme automatisées. Des services de « caisse sans caissier » aux plateformes d’annotation de données, le mécanisme est souvent le même: on vend l’autonomie d’un système, mais on s’appuie sur une armée de petites mains pour que cela fonctionne dans les coulisses. La prouesse technique affichée masque un coût humain que le marketing n’évoque pas.
Fireflies, de l’improvisation à la licorne
La startup Fireflies, spécialisée dans la prise de notes automatique en réunion, s’inscrit dans cette continuité. Devenue célèbre pour avoir revendiqué une valorisation à 1 milliard de dollars et une adoption massive (une large part des Fortune 500), l’entreprise met en avant une technologie capable de transcrire et résumer des échanges professionnels. Mais son cofondateur et CTO, Sam Udotong, a raconté que les débuts, en 2017, furent bien plus artisanaux: leur « IA » était en fait deux personnes. Lui et Krish Ramineni, l’autre cofondateur, rejoignaient les réunions sous un profil nommé « Fred », restaient silencieux et prenaient des notes à la main, qu’ils envoyaient ensuite rapidement aux clients. Après plus d’une centaine de réunions ainsi gérées, ils parviennent à survivre, payer le loyer et continuer à bâtir leur produit. Selon Udotong, le processus a depuis été automatisé, et certains clients d’entreprise auraient su qu’il y avait un humain dans la boucle — sans que cela ne les dérange.
« Faire semblant jusqu’à y parvenir »: une culture bien ancrée
Cette trajectoire illustre une norme tacite de l’écosystème tech: le « faire semblant jusqu’à y parvenir ». Dans un marché où la vitesse de démonstration pèse souvent plus que la rigueur, les fondateurs apprennent à valider leur idée en « devenant eux-mêmes le produit », le temps que la technologie rattrape le discours. Les réseaux professionnels s’enflamment parfois contre ces pratiques, mais l’histoire montre qu’elles peuvent être récompensées: attirer des clients, lever des fonds, gagner en visibilité. Le problème est que cette logique valorise l’illusion de l’innovation plus que son impact réel.
Quand l’apparence l’emporte sur le progrès
En privilégiant les signaux qui « font moderne » — démonstrations impressionnantes, branding léché, promesses d’automatisation totale — le marché crée les incitations à la dissimulation initiale: si ce qui compte est d’obtenir des contrats ou des financements, alors l’emballage prime. Au passage, cela enrichit ceux qui maîtrisent le récit, tout en invisibilisant le travail humain qui permet au produit de tenir debout. Pour une économie où les startups jouent un rôle central, cette tendance éclaire notre moment présent: la frontière entre progrès réel et mise en scène devient floue, et c’est souvent la mise en scène qui gagne.
Ce qu’il faut retenir
- Le Turc mécanique était déjà un précédent: une technologie « magique » rendue possible par un humain caché.
- Aujourd’hui, de nombreux services « IA » reposent encore sur un travail humain discret.
- L’histoire de Fireflies montre comment une idée peut démarrer en mode système D avant de s’automatiser.
- Le marché récompense souvent l’apparence de l’innovation, nourrissant un cycle où la fiction technologique précède la réalité.
Et maintenant ?
Si l’on veut sortir de ce cycle, il faut encourager la transparence (« humain dans la boucle » clairement annoncé), valoriser les résultats mesurables plutôt que les effets de manche, et reconnaître la valeur du travail qui rend possibles les systèmes dits intelligents.
FAQ
Comment repérer qu’un service d’IA utilise des humains en coulisses ?
- Cherchez des indices de « human-in-the-loop » dans la documentation.
- Vérifiez les délais (réponses différées plutôt qu’instantanées).
- Testez des cas atypiques: si la qualité chute fortement, l’automatisation est peut-être fragile sans intervention humaine.
Est-ce forcément grave d’avoir des humains dans la boucle ?
Non. Beaucoup de systèmes nécessitent un contrôle qualité humain, surtout au début. Le problème surgit quand l’entreprise prétend une automatisation totale, ou quand les conditions de travail des personnes impliquées sont passées sous silence.
Quelles bonnes pratiques pour une IA “honnête” ?
- Annoncer clairement le niveau d’automatisation.
- Définir des indicateurs (taux d’erreur, latence, cas non couverts).
- Protéger les données et le travail des contributeurs.
- Publier une feuille de route sur la réduction progressive de l’intervention humaine.
Pourquoi les investisseurs financent-ils des projets encore immatures ?
Parce que le capital-risque mise sur le potentiel et la vitesse d’exécution. Les démos convaincantes et la traction commerciale priment parfois sur la maturité technique, ce qui encourage des lancements précoces et des récits ambitieux.
Que peut faire un client pour éviter les mauvaises surprises ?
- Exiger un pilote avec métriques claires.
- Demander un SLA précisant les performances et l’escalade humaine.
- Vérifier la sécurité et la gouvernance des données.
- Renégocier si la part de travail humain dépasse ce qui a été annoncé.
