À peine deux mois après avoir atteint une valorisation vertigineuse de 39 milliards de dollars, la startup de robotique Figure AI se retrouve au centre d’une plainte fédérale de lanceur d’alerte. L’ex-responsable de la sécurité produit affirme avoir été licencié après avoir alerté la direction sur des risques graves liés aux robots humanoïdes de l’entreprise.
Une plainte qui tombe au pire moment
L’affaire éclate alors que la jeune pousse surfait sur un élan financier historique. Selon la plainte déposée devant le tribunal fédéral du Northern District of California, l’entreprise aurait traité les signaux d’alarme internes comme des « entraves » plutôt que comme des obligations. Le plaignant, Robert Gruendel, soutient avoir tiré la sonnette d’alarme à plusieurs reprises, affirmant que certaines machines étaient suffisamment puissantes pour infliger des blessures mortelles.
Un incident qui fait froid dans le dos
Toujours d’après la plainte citée par CNBC, un robot défaillant aurait laissé une entaille d’environ 6 millimètres dans une porte de réfrigérateur en acier — un exemple mis en avant par l’ingénieur pour illustrer le potentiel destructeur de ces appareils lorsqu’ils ne sont pas correctement contrôlés.
À l’intérieur de l’entreprise : sécurité vs vitesse d’exécution
Le cœur des accusations porte sur une tension devenue fréquente dans la tech: concilier sécurité et mise sur le marché. Gruendel, présenté comme lanceur d’alerte, explique avoir été écarté en septembre, seulement quelques jours après avoir transmis ses plaintes « les plus directes et documentées ». Il affirme aussi s’être opposé à des tentatives de réduire la portée d’une feuille de route de sécurité stratégique, un document qu’il avait présenté à des investisseurs.
Un plan de sécurité vidé de sa substance
La plainte souligne une coïncidence lourde de sous-entendus: la levée de fonds de Série C s’est bouclée en septembre — le même mois où ce plan de sécurité aurait été « vidé ». Les avocats du plaignant avancent que cet enchaînement pourrait « être interprété comme frauduleux » si l’on considère que ce plan aurait pesé dans la décision d’investir.
Valorisation fulgurante et pression des investisseurs
La trajectoire de Figure AI a été spectaculaire: environ 2,6 milliards de dollars de valorisation début 2024, soutenue par des noms comme Jeff Bezos, Nvidia et Microsoft, puis un bond à 39 milliards en septembre. La plainte suggère que cette ascension se serait accompagnée d’un resserrement des priorités, la direction privilégiant des objectifs financiers et des calendriers de livraison ambitieux au détriment de garde-fous techniques jugés essentiels.
Une « nouvelle orientation » et un licenciement
Lorsqu’il a exprimé ses réserves sur les risques physiques, l’ingénieur affirme s’être vu opposer une « vague évolution de la stratégie » de l’entreprise, avant d’être remercié. Pour lui, le message était clair: la prudence passait après la progression commerciale.
Un écho au débat plus large sur la sécurité de l’IA
Cette affaire résonne avec une question centrale à Silicon Valley: comment déployer des systèmes puissants sans sous-estimer leurs risques réels? Les robots humanoïdes combinent force mécanique, capteurs et décision logicielle; le moindre défaut d’architecture, de supervision ou de procédure peut entraîner des dommages matériels ou humains. Les révélations alléguées dans la plainte pourraient donc devenir un cas d’école sur la gouvernance et la responsabilisation des entreprises d’IA.
Ce qui pourrait se passer ensuite
- Une phase de découverte judiciaire pourrait mettre au jour des documents internes sur la gestion de la sécurité.
- L’entreprise pourrait chercher un règlement à l’amiable pour limiter l’exposition médiatique et juridique.
- En cas de confirmation d’irrégularités, des conséquences réglementaires et des obligations de conformité renforcées pourraient suivre.
- Quoi qu’il arrive, la perception des risques liés aux robots humanoïdes et des standards de sécurité pourrait s’en trouver durablement modifiée.
À retenir
- Une plainte fédérale vise Figure AI pour la gestion présumée de la sécurité de ses robots.
- Le plaignant, ex-ingénieur sécurité, dit avoir été licencié après des alertes internes.
- La controverse survient après une valorisation record et une Série C très médiatisée.
- Le dossier met en lumière le dilemme sécurité vs vitesse dans la robotique humanoïde.
FAQ
Qu’est-ce qu’une plainte de lanceur d’alerte aux États-Unis ?
Il s’agit d’une action protégée par la loi lorsqu’un employé signale des pratiques potentiellement illégales, dangereuses ou trompeuses. Le lanceur d’alerte peut bénéficier de protections contre les représailles et, dans certains cas, de recours spécifiques s’il est sanctionné.
Quels sont les garde-fous de sécurité typiques pour des robots humanoïdes ?
On retrouve des limiteurs de couple, des zones de sécurité virtuelles, des arrêts d’urgence redondants, des contrôles de conformité logicielle, des tests de collision, ainsi que des procédures d’homologation et de validation par des équipes indépendantes.
Quelles peuvent être les issues d’un tel litige pour l’entreprise ?
Les scénarios courants incluent un classement, un règlement, ou une décision de justice imposant des mesures correctives, des audits, voire des dommages-intérêts. La réputation et les relations avec les investisseurs peuvent aussi en être affectées.
Comment les investisseurs évaluent-ils la maturité sécurité d’une startup robotique ?
Ils examinent les processus (revues de risques, audits), la gouvernance (responsables nommés, comités), les indicateurs (taux d’incidents, couverture des tests) et la conformité à des normes reconnues. Des démonstrations encadrées et des rapports indépendants sont de plus en plus demandés.
Les robots humanoïdes présentent-ils des risques particuliers par rapport aux robots industriels classiques ?
Oui. Leur polyvalence, leur mobilité et leur proximité avec l’humain augmentent la complexité des scénarios de risque. Cela exige des mécanismes de sûreté plus sophistiqués et des protocoles d’interaction humain-robot plus stricts.
