Intelligence Artificielle

Cinq experts dévoilent leurs plus grandes craintes envers l’IA.

Cinq experts dévoilent leurs plus grandes craintes envers l'IA.

L’intelligence artificielle avancée pourrait transformer notre monde. Elle pourrait être un atout dans la lutte contre le cancer et l’amélioration des soins de santé à l’échelle mondiale, tout en nous libérant des tâches répétitives de notre quotidien.

Ce sujet était au cœur des discussions le mois dernier lors de la rencontre entre ingénieurs, investisseurs, chercheurs et décideurs au Congrès commun sur l’intelligence artificielle de niveau humain.

Cependant, une certaine inquiétude a marqué les échanges. Certains participants craignent de perdre leur emploi face à des robots ou à des algorithmes, tandis que d’autres redoutent une révolte des machines. Où se situe la frontière entre l’alarme et une préoccupation légitime ?

Pour tenter d’éclaircir cette situation, Futurism a interrogé cinq experts en IA présents à la conférence sur leurs craintes vis-à-vis d’un avenir dominé par l’intelligence artificielle. Leurs déclarations, ci-dessous, ont été légèrement modifiées pour une meilleure compréhension.

En tenant compte de leurs préoccupations, espérons que nous pourrons orienter notre société vers un avenir meilleur — un futur où l’IA est utilisée pour des causes positives, comme la lutte contre les épidémies mondiales ou l’accès à l’éducation, et moins pour des conséquences néfastes.

Crédit image : Getty Images

Q : Qu’est-ce qui vous semble le plus inquiétant concernant ce que l’IA pourrait nous permettre de faire ?

Et qu’est-ce qu’elle nous permettra de faire à l’avenir ?

Kenneth Stanley, Professeur à l’Université de Floride Centrale, Responsable technique sénior et Scientifique à Uber AI Labs

L’un des plus grands dangers est que l’IA puisse être utilisée pour nuire. Il existe de nombreuses applications où cela peut se produire. Nous devons être extrêmement vigilants pour éviter les abus de cette technologie. [La question de comment garder l’IA responsable est] complexe et nécessite l’implication de l’ensemble de la société.

Sur le développement d’une IA sûre :

Toute technologie peut être détournée à des fins néfastes, l’IA n’est qu’un exemple de plus. L’humanité a toujours lutté contre l’utilisation malveillante des nouvelles technologies. Je suis convaincu que nous pouvons poser des mécanismes de contrôle pour la rendre plus sûre.

Je ne suis pas certain de la meilleure manière de procéder, mais je nous encourage à aborder [les impacts de l’IA] avec prudence et à apprendre progressivement.

Irakli Beridze, Responsable du Centre pour l’Intelligence Artificielle et la Robotique à l’UNICRI, Nations Unies

Là où réside le véritable danger pour l’IA, c’est dans sa rapidité de développement. La question est de savoir à quel rythme cette technologie évolue et à quelle vitesse nous nous adaptons. Si nous perdons cet équilibre, nous risquons de rencontrer des problèmes.

Concernant le terrorisme, la criminalité et d’autres sources de risques :

Les applications dangereuses de l’IA, selon moi, incluent son utilisation par des criminels ou des organisations terroristes pour perturber des processus ou causer des dommages. [Les terroristes pourraient causer du tort] par le biais de la guerre numérique, ou en combinant robots, drones et IA d’une manière pouvant être vraiment nocive.

De plus, les pertes d’emplois représentent également un risque important. Si un grand nombre de personnes se retrouvent au chômage sans solution, cela pourrait devenir extrêmement grave. Les systèmes d’armes autonomes létales doivent être régulés de manière appropriée, sinon le potentiel de mauvais usages est énorme.

Sur la manière d’avancer :

C’est la dualité de cette technologie. Je crois fermement que l’IA n’est pas une arme, mais un outil. Un outil puissant, qui peut être utilisé pour le bien ou pour le mal. Notre mission est de nous assurer qu’on l’utilise pour le bien, de maximiser ses bénéfices tout en réduisant les risques.

John Langford, Chercheur principal chez Microsoft

Je pense qu’il faut garder un œil sur les drones. Ces appareils automatisés peuvent représenter un danger de diverses manières. Actuellement, le calcul à bord des armes non pilotées n’est pas encore assez performant, mais dans cinq à dix ans, je peux imaginer qu’un drone pourrait avoir une efficacité suffisante pour être réellement utile. Même si actuellement, les drones en guerre sont [encore contrôlés par l’homme], il n’y a aucune raison qu’ils ne puissent pas intégrer un système d’apprentissage qui leur permettrait d’être efficaces. C’est une source d’inquiétude pour moi.

Hava Siegelmann, Responsable des Programmes du Bureau de Technologie des Microsystems à DARPA

Chaque technologie peut être utilisée à des fins malveillantes. Cela dépend de ceux qui en font usage. Je ne pense pas qu’une technologie soit intrinsèquement mauvaise, mais certaines personnes le sont. La question sera de savoir qui a accès à cette technologie et comment elle est utilisée.

Tomas Mikolov, Chercheur chez Facebook AI

Lorsque l’intérêt et le financement se concentrent autour d’un sujet, cela attire aussi des abus. Il est inquiétant de voir certains vendre de l’IA même avant qu’elle ne soit développée, prétendant connaître les problèmes qu’elle résoudra.

Ces startups étonnantes promettent des solutions qui relèvent d’exemples d’IA extraordinaires, alors que leurs systèmes ne font que sur-optimiser un seul chemin, souvent sans réel intérêt. Après avoir investi des milliers d’heures pour améliorer une seule valeur, certaines de ces entreprises font des affirmations exagérées sur leurs réalisations.

Pour être honnête, beaucoup de récentes avancées de ces groupes que je préfère ne pas nommer étaient autrefois ignorées et ne génèrent aucun revenu. Elles ressemblent plus à des tours de magie qu’à de réelles avancées. Surtout celles qui voient l’IA comme une simple sur-optimisation d’une tâche très spécifique, sans possibilité d’application à d’autres défis plus variés.

Une personne critiquant légèrement ces systèmes découvrirait rapidement des incohérences qui contredisent les hautes prétentions de l’entreprise.

Pour en savoir plus sur le développement d’une IA responsable : La recherche sur l’IA malveillante doit-elle être publiée ? Cinq experts s’expriment.

### FAQ

A lire :  Mozilla lance une fenêtre IA facultative dans Firefox malgré la grogne des utilisateurs

#### Qu’est-ce que l’intelligence artificielle (IA) ?
L’intelligence artificielle fait référence à des systèmes ou des machines qui imitent l’intelligence humaine pour effectuer des tâches et peuvent améliorer leurs performances grâce à l’apprentissage.

#### Quels sont les usages positifs de l’IA ?
L’IA peut être utilisée dans de nombreux domaines tels que le diagnostic médical, l’éducation personnalisée, l’optimisation des processus industriels, et bien plus encore pour améliorer la qualité de vie.

#### Quels risques sont associés à l’IA ?
Les principaux risques incluent la perte d’emplois, les abus potentiels de la technologie par des acteurs malveillants, et les préoccupations éthiques sur la prise de décision autonome.

#### Comment l’IA peut-elle influencer le marché du travail ?
L’IA est susceptible de remplacer certains emplois, en particulier ceux qui sont répétitifs ou nécessitent un faible niveau de compétences, tout en créant de nouvelles opportunités dans des secteurs émergents.

#### Que font les gouvernements pour réguler l’IA ?
Bien que les efforts varient selon les pays, de nombreux gouvernements travaillent à l’élaboration de réglementations pour encadrer le développement et l’utilisation de l’IA afin de prévenir les abus et protéger les droits humains.