Intelligence Artificielle

IBM Incite les Développeurs à Garantir l’Équité de leurs Algorithmes pour Renforcer la Confiance dans l’Intelligence Artificielle

IBM Incite les Développeurs à Garantir l'Équité de leurs Algorithmes pour Renforcer la Confiance dans l'Intelligence Artificielle

La confiance dans l’intelligence artificielle et ses enjeux

Nous confions aux algorithmes d’intelligence artificielle de nombreuses tâches cruciales. Cependant, ces systèmes peuvent souvent nous décevoir. Par exemple, le biais algorithmique peut entraîner une surveillance excessive dans les quartiers majoritairement noirs, tandis que les filtres automatiques sur les réseaux sociaux ciblent les militants tout en permettant aux groupes de haine de continuer à publier sans contrôle.

Vers une IA plus équitable

Face aux problèmes croissants soulevés par ces biais, des spécialistes s’efforcent de proposer des solutions pour rendre l’IA plus juste et transparente. Leurs suggestions incluent des audits externes pour les développeurs d’IA, visant à garantir que leurs systèmes ne perpétuent pas les préjugés sociétaux. De plus, il est proposé de mettre au point des tests pour s’assurer qu’un algorithme ne traite pas les individus différemment en fonction de critères comme la race, le sexe ou la classe socio-économique.

A lire :  Un Grand Journal Publie un Article d'Opinion Rédigé par GPT-3

Une nouvelle proposition de safeguard

Récemment, des scientifiques d’IBM ont introduit une nouvelle mesure de sécurité qu’ils pensent capable d’améliorer la transparence et l’efficacité des algorithmes d’intelligence artificielle. Ils suggèrent que, juste avant de commercialiser un algorithme, les développeurs devraient publier une Déclaration de Conformité des Fournisseurs (SDoC). Ce document, semblable à un rapport ou un mode d’emploi, ferait état des performances de l’algorithme selon des tests normalisés portant sur des critères de performance, d’équité, de risques et de sécurité. Cette information devrait être accessible à tous.

Transparence et confiance du public

Dans un article de recherche publié récemment, les chercheurs d’IBM soutiennent que cette transparence pourrait renforcer la confiance du public et rassurer les clients potentiels quant à la fiabilité d’un algorithme. Si un algorithme semble susceptible de nuire à certains, les résultats de tests appropriés devraient permettre aux clients de s’abstenir de l’utiliser.

Une approche inspirée d’autres industries

Les chercheurs s’inspirent d’autres secteurs qui, bien que n’exigeant pas légalement des SDoC, encouragent leur utilisation afin d’attirer les clients vers des concurrents plus transparents. Par exemple, les consommateurs ont confiance en la sécurité des freins d’une voiture ou en la fiabilité des systèmes de pilotage automatique d’un avion, car ces éléments sont minutieusement testés selon des normes bien définies.

Une série de questions essentielles

L’IA SDoC pourrait traiter des questions telles que :

  • Le jeu de données utilisé pour former l’algorithme a-t-il un document explicatif ?
  • Des vérifications des biais ont-elles été réalisées sur le modèle ? Si oui, quelles méthodes ont été employées ?
  • Des mesures pour atténuer les biais ont-elles été appliquées sur les données ? Si oui, lesquelles ?
  • Les résultats de l’algorithme sont-ils explicables ? Si oui, comment ?
  • Quel type de gouvernance est en place pour suivre le flux des données vers le service d’IA ?
A lire :  Microsoft : La Folie de Notre IA, C'est Votre Faute.

Limites des SDoC

Cependant, exiger des développeurs qu’ils publient des SDoC ne résoudra pas tous les problèmes liés à l’utilisation croissante de l’intelligence artificielle. Bien que nous comprenions le fonctionnement des freins d’une voiture, certains algorithmes complexes, notamment ceux basés sur l’apprentissage profond, peuvent rester opaques. De plus, ces rapports devront influencer réellement les acteurs du marché pour être efficaces.

Bien que les développeurs puissent être motivés à publier des SDoC en réponse aux actions de leurs concurrents, le vrai changement dépendra de la volonté des clients, des gouvernements et des entreprises à se soucier de ces rapports. Par exemple, une police ayant déjà utilisé des algorithmes racistes s’engagera-t-elle à rechercher systématiquement de meilleurs systèmes ? Seul l’avenir le dira.

Conclusion

Ces rapports ne garantiront pas nécessairement l’adoption d’algorithmes éthiques. Toutefois, s’ils sont combinés avec des outils comme des audits externes, le public sera en mesure d’exiger des algorithmes traitant chacun de manière équitable.

FAQ

Qu’est-ce qu’une Déclaration de Conformité des Fournisseurs (SDoC) ?

Il s’agit d’un document détaillant les performances, l’équité et la sécurité d’un algorithme d’IA avant sa commercialisation.

Pourquoi est-il important de vérifier les biais dans l’IA ?

Les biais peuvent avoir des conséquences sérieuses, entraînant des discriminations dans des domaines cruciaux tels que l’embauche, la justice ou l’accès à des services.

Comment les SDoC peuvent-elles renforcer la confiance du public ?

En rendant les performances et les risques des algorithmes transparents, les SDoC permettent aux utilisateurs de prendre des décisions éclairées sur leur utilisation.

Quel est le rôle des développeurs dans la lutte contre les biais algorithmiques ?

Les développeurs doivent s’assurer que leurs algorithmes sont testés de manière rigoureuse pour éviter la propagation des préjugés sociétaux.

A lire :  « World Labs de Fei-Fei Li en Négociations pour un Financement à 5 Milliards de Dollar »

Comment les citoyens peuvent-ils influencer le développement d’algorithmes plus éthiques ?

En exigeant des SDoC, en soutenant des pratiques transparentes et en se mobilisant pour des politiques publiques, les citoyens peuvent inciter les entreprises à adopter des standards plus élevés.