Intelligence Artificielle

Des Scientifiques Développent une IA « Délibérément » Biasée Qui Évalue Vos Actions Comme Votre Belle-Mère.

Des Scientifiques Développent une IA « Délibérément » Biasée Qui Évalue Vos Actions Comme Votre Belle-Mère.

Juge, Jury, Exécuteur

Dans le domaine de la recherche en apprentissage machine, des scientifiques expérimentent avec des réseaux de neurones qui apprennent à porter un jugement superficiel sur les humains. Les résultats sont à la fois brutaux et surprenants.

Une étude, parue dans le célèbre journal Proceedings of the National Academy of Sciences, révèle comment les chercheurs ont formé un modèle capable d’évaluer différents traits sur les visages humains, exactement comme nous le faisons lors de nos premières rencontres. Grâce à des manipulations photographiques, ces chercheurs ont réussi à orienter les jugements — leur faire apparaître plus « fiables » ou plus « dominants » selon le contexte.

Joshua Peterson, chercheur postdoctoral en informatique à Princeton, a souligné sur Twitter que « notre base de données ne contient pas seulement des biais, elle en est un reflet volontaire ».

Erreur Humaine

L’article de PNAS mentionne que cette intelligence artificielle imite tellement le jugement humain qu’elle associe souvent des caractéristiques physiques objectives, telles que la taille ou la couleur de peau, à des attributs comme la confiance ou le privilège.

A lire :  Les Robots Humanoïdes d'UBTech Intègrent les Usines Airbus dans une Nouvelle Révolution de la Fabrication Mondiale

Peterson a expliqué que parmi les 34 valeurs de jugement que l’IA a apprises, la plupart avaient des corrélations politiques. En explorant un site interactif lié à l’étude, Futurism a remarqué que l’algorithme avait tendance à considérer les visages blancs comme étant plus « conservateurs » tandis que les visages correspondant à une recherche de « libéral » étaient souvent des personnes de couleur.

Jordan W. Suchow, un chercheur en cognition et en IA au Stevens Institute of Technology, a déclaré dans un communiqué de presse qu’il était crucial de veiller à l’utilisation de cette technologie, car elle pourrait être exploitée à des fins néfastes, comme altérer la réputation d’une personnalité publique.

Un Biais Évident ?

Bien que la notion soit assez complexe, Suchow rappelle que ce type d’apprentissage machine est capable d’étudier les premières impressions biaisées que les gens se forment les uns des autres. Avec une simple photo, ils peuvent prédire les premières impressions que les individus peuvent avoir de vous et les stéréotypes qu’ils pourraient appliquer en voyant votre visage.

Alors que le sujet des biais en IA devient de plus en plus pertinent, cette révélation soulève des questions cruciales sur l’éthique des technologies modernes. Vous pouvez découvrir cet outil interactif sur le site OneMillionImpressions.com.

En savoir plus : Modèles approfondis de jugements superficiels de visage [Proceedings of the National Academy of Sciences]

À découvrir sur l’IA : Bienvenue dans « Robot Hell » ! Découvrez le génie dérangé qui a créé une version IA de @Dril.

FAQ

Qu’est-ce que l’apprentissage machine et comment est-il utilisé dans cette étude ?

L’apprentissage machine est une forme d’intelligence artificielle où des algorithmes apprennent à partir de données. Dans cette étude, des chercheurs l’ont utilisé pour analyser les impressions que les gens se forment les uns des autres basées sur des caractéristiques telles que les visages.

A lire :  Un Avertissement Saisissant : L'Architecte de l'IA Moderne Prédit la Fin de Votre Emploi.

Quels types de biais peuvent être associés aux résultats de ce type de recherche ?

Les biais peuvent inclure des perceptions erronées basées sur des attributs physiques comme la couleur de peau ou la taille, qui peuvent influencer des jugements sur la confiance, le privilège ou l’idéologie politique.

Comment ces résultats pourraient-ils influencer des technologies ou des systèmes en développement ?

Ces résultats soulignent la nécessité de prendre en compte les biais dans les systèmes d’IA, afin d’éviter que des décisions automatisées ne renforcent des stéréotypes négatifs ou ne nuisent à des individus sur la base de caractéristiques superficielles.

Quelles précautions devraient être prises concernant l’usage de cette technologie ?

Il est essentiel d’établir des protocoles éthiques stricts pour réguler comment des algorithmes jugent et évaluent les individus, afin de prévenir l’exploitation à des fins malveillantes.

Existe-t-il des applications bénéfiques possibles pour ce type de technologie ?

Oui, potentiellement, cette technologie pourrait être utilisée pour mieux comprendre les préjugés sociaux et pour concevoir des programmes de sensibilisation qui aident à réduire les biais dans des contextes variés, comme l’embauche ou le marketing.