<p>
<figcaption class="article-featured-image-caption">
<em>Image : Shawn Thew / Pool / AFP via Getty / Futurism</em>
</figcaption>
</p>
Une Investissement Stratégique de Meta
Lorsque Meta a investi la coquette somme de 14 milliards de dollars pour acquérir 49 % de Scale AI, il semblait évident que cette démarche était fondée sur une confiance solide en la capacité de l’entreprise à générer des bénéfices. Cependant, de récents rapports suggèrent que Scale AI, cofondée par Alexandr Wang, un jeune entrepreneur de 28 ans, semble rencontrer de graves problèmes internes.
Problèmes de Sécurité et de Gestion
Une enquête de Inc Magazine révèle que Scale AI, dans sa collaboration avec Google qui vient d’être interrompue suite à l’acquisition par Meta, aurait été envahie par des spammeurs, exploitant des failles dans ses systèmes de sécurité. Ces incidents illustrent les difficultés rencontrées par Scale AI pour satisfaire les exigences d’un client de la taille de Google.
Le Rôle de Scale AI
Scale AI se positionne comme un centre d’annotation de données, jouant un rôle crucial dans l’industrie de l’IA. Pour entraîner un modèle d’intelligence artificielle, il est essentiel d’avoir des données de qualité. Ces données nécessitent une annotation précise, effectuée par des annotateurs qui ajoutent le contexte nécessaire.
Conditions de Travail Difficiles
Dans la tradition actuelle des entreprises américaines, Scale AI a construit son modèle économique sur le dos de travailleurs à la tâche extrêmement sous-payés, dont beaucoup opèrent à l’étranger. Les conditions de travail ont été qualifiées de “sweatshops numériques”, et des accusations de vol de salaires ont été portées contre l’entreprise.
Un Environnement Non Propice à la Qualité
Les documents internes récemment obtenus indiquent que le programme “Bulba Experts”, censé former les systèmes d’IA de Google, était supposé être géré par des spécialistes reconnus. Pourtant, pendant une période tumultueuse de 11 mois, des “contributeurs” peu fiables ont inondé le programme de contenu inapproprié, souvent décrit comme de la bêtise générée par une IA.
L’Impossibilité de Contrôler les Abus
Il semble que les travailleurs indépendants, employés par Scale AI via des plateformes telles que Remotasks et Outlier, parvenaient à être rémunérés pour des soumissions totalement absurdes, car il était difficile de détecter tous les abus. Même en cas de détection, certains utilisateurs réussissaient à contourner les contrôles en utilisant un VPN.
Un ancien contributeur a déclaré : “Les gens gagnaient beaucoup d’argent. Ils embauchaient n’importe qui.” La nature du travail nécessitait souvent des diplômes avancés que nombre de ces contributeurs ne possédaient pas, sans qu’aucune vérification réelle ne soit effectuée.
Insuffisance des Vérifications
Un ancien responsable de Remotasks a révélé qu’aucun contrôle des antécédents n’était pratiqué. Malgré des exigences pour certaines qualifications, ces vérifications étaient systématiquement ignorées. Des travailleurs ne parlant pas anglais n’étaient pas rares dans le programme.
Les abus ont conduit à une situation inédite où 800 spammeurs ont été intégrés à l’équipe, participant à la soumission de contenus inappropriés. Les actions pour résoudre ces problèmes semblaient rudimentaires, consistant en des directives visant à exclure des contributeurs venant de pays spécifiques comme l’Égypte ou le Pakistan.
Une Mauvaise Qualité Générale
Face à des abus de plus en plus prononcés, les superviseurs utilisaient des outils comme ZeroGPT pour détecter la soumission de contenu généré par l’IA. Cela soulève des questions sur la qualité des données fournies à Google et comment une partie de ce contenu a pu influencer les modèles d’IA du géant technologique.
Réponses de Scale AI
De son côté, un porte-parole de Scale AI a rejeté ces accusations, affirmant que “cette histoire contient de nombreuses inexactitudes.” Il a assuré qu’il existait des mesures de sécurité afin de détecter et d’éliminer le spam avant toute distribution à des clients.
FAQ
H4: Qu’est-ce que Scale AI ?
Scale AI est une entreprise spécialisée dans l’annotation de données pour soutenir l’entraînement des systèmes d’intelligence artificielle.
H4: Pourquoi les conditions de travail chez Scale AI sont-elles problématiques ?
Les travailleurs sont souvent sous-payés et font face à des conditions décrites comme des “sweatshops numériques”, où de nombreux problèmes tels que le vol de salaires et le manque de formation sont fréquemment signalés.
H4: Comment Scale AI gère-t-elle la qualité du contenu fourni ?
Scale AI a tenté de mettre en place plusieurs niveaux de vérification, mais la mise en œuvre de ces mesures semble souvent déficiente ou non suivie.
H4: Que signifie “spammeurs” dans le contexte de Scale AI ?
Les “spammeurs” se réfèrent à des contributeurs qui soumettent du contenu inapproprié ou de mauvaise qualité, profitant des failles dans les systèmes de vérification de Scale AI.
H4: Quels sont les enjeux d’une telle situation pour Google ?
Des abus au sein de Scale AI pourraient compromettre la qualité des données utilisées pour entraîner les modèles d’IA de Google, impactant ainsi les performances de ces technologies.
