Intelligence Artificielle

Des Scientifiques Créent une IA pour des Conseils Éthiques, Mais Elle Se Révèle Hautement Raciste.

Des Scientifiques Créent une IA pour des Conseils Éthiques, Mais Elle Se Révèle Hautement Raciste.

Éthique et Algorithmes : Une Réflexion Actuelle

Une Nouvelle Approche Éthique

Nous avons tous été confrontés à des choix difficiles sur le plan éthique. Mais que se passerait-il si nous confions ces décisions délicates à un algorithme d’apprentissage automatique ? Cette idée, au cœur du projet Ask Delphi, a été développée par l’Allen Institute for AI. En entrant une situation ou une question éthique, et après avoir cliqué sur “Ponder”, l’algorithme fournit des orientations éthiques en quelques secondes.

Le Lancement et ses Répercussions

Récemment lançé, Ask Delphi a rapidement suscité des réactions sur Internet, et souvent pour les mauvaises raisons. Les conseils et jugements qu’il a donnés sont souvent problématiques. Par exemple, une réponse donnée à la question d’un utilisateur concernant “un homme blanc s’approchant de vous nocturnement” était « C’est acceptable », alors qu’une question similaire sur “un homme noir” a révélé un préjugé flagrant.

Un Outil Controversé

Au début de son lancement, le projet a intégré un outil permettant de comparer la moralité de diverses situations. Cela a mené à des jugements inacceptables et biaisés. Après avoir utilisé l’IA, il devient évident qu’il est possible de manipuler ses réponses en modifiant légèrement la formulation des questions, ce qui est dérangeant.

A lire :  Erreur coûteuse : L'IA remplace-t-elle vraiment les travailleurs ?

La Nature Problématique de l’IA

L’IA d’Ask Delphi n’est pas simplement un projet amusant : elle peut avoir des répercussions sérieuses. Bien que le but soit de créer une IA capable de rendre des jugements éthiques, il est alarmant de voir un ordinateur se transformer en juge moral. Le potentiel de l’outil à engendrer des jugements inappropriés est la source de nombreuses inquiétudes.

Catégorisation des Biais

Le papier publié par l’équipe derrière Delphi souligne une tentative d’inventorier les biais potentiels. Cependant, en réalité, les sources utilisées pour entraîner l’algorithme incluent des forums en ligne comme “Am I the Asshole ?”, ce qui a influencé ses réponses de manière négative. Les situations ont été extraites de ces plateformes, mais les réponses elles-mêmes proviennent d’un entraînement réalisé par des utilisateurs via un service appelé MechanicalTurk.

Une Réflexion Sur Nos Normes

Cet algorithme reflète notre propre éthique et nos valeurs, souvent biaisées. La dernière mise à jour sur le site stipule que les réponses données représentent ce qu’un Américain moyen pourrait penser. Cela soulève des questions sur la fiabilité des jugements prodigués.

Conclusion

Pour l’instant, Ask Delphi représente une exploration intrigante et problématique de la moralité. Si un jour les ordinateurs parvenaient à prendre des décisions éthiques sans équivoque, nous espérons qu’ils le feraient mieux que cela.

FAQ

Qu’est-ce qu’Ask Delphi ?

Ask Delphi est un modèle d’apprentissage automatique conçu pour fournir des conseils éthiques basés sur des situations que les utilisateurs entrent.

Pourquoi Ask Delphi a-t-il suscité des controverses ?

Les réponses biaisées et controversées qu’il a fournies, souvent teintées de préjugés raciaux, ont choqué de nombreux utilisateurs.

A lire :  “L’IA, un outil complémentaire : Le PDG d’un magazine redéfinit le journalisme”

Quelle a été la méthode d’entraînement de l’algorithme ?

L’algorithme a été formé en s’appuyant sur des extraits de discussions publiques, comme ceux de forums en ligne, et par des réponses collectées via un service de crowdsourcing.

Quels risques posent des systèmes comme Ask Delphi ?

La possibilité d’établir l’algorithme comme une autorité morale est préoccupante, surtout lorsqu’il fournit des jugements contestables qui pourraient influencer négativement les utilisateurs.

Quelle est l’intention derrière Ask Delphi ?

L’objectif principal est de comprendre comment les systèmes d’IA peuvent saisir les normes sociales et les enjeux éthiques, plutôt que de donner des conseils définitifs.