Intelligence Artificielle

Indice AI de Stanford 2026 : La Confiance au Bord du Gouffre.

Indice AI de Stanford 2026 : La Confiance au Bord du Gouffre.

Image : Le Neurone

Les recommandations de contenu et de produits d’ADGO.ca sont
indépendantes sur le plan éditorial. Nous pouvons gagner de l’argent lorsque vous cliquez sur les liens vers nos partenaires.
En savoir plus

Le rapport 2026 sur l’IA publié par Stanford HAI a été dévoilé hier. Pour la première fois, la section la plus significative ne concerne pas les indicateurs de performance, mais plutôt le fossé qui se creuse entre ceux qui **développent** l’IA et ceux qui **l’utilisent**. Ils ne partagent plus les mêmes **réalités**.

Voici quelques données révélatrices :

  • Seulement **10%** des Américains se disent plus enthousiastes que préoccupés par l’IA, tandis que chez les experts, ce chiffre grimpe à **56%**.
  • Concernant les soins de santé, **84%** des spécialistes estiment que l’IA sera bénéfique, mais seulement **44%** du grand public partage cet avis.
  • Pour ce qui est des emplois, **73%** des experts affirment que l’IA apportera une aide, alors que seulement **23%** du public le pense.
  • À l’heure actuelle, le modèle d’IA le plus performant de la Chine n’est supérieur à celui d’Anthropic que de **2,7%**. L’avance des États-Unis a pratiquement disparu.
  • La formation du modèle Grok 4 a généré environ **72 816** tonnes de CO2. Pour mettre cela en perspective, la demande cumulée en puissance d’IA se rapproche de la consommation électrique nationale de la Suisse.

Importance de ces résultats

Ce rapport a été publié la même semaine où une **attaque** a eu lieu chez Sam Altman, le fondateur d’OpenAI. Après l’incident, des agents fédéraux ont arrêté un homme du Texas ayant un manifeste anti-IA. Dans un post rédigé à 3 heures du matin, Altman a reconnu avoir sous-estimé “le pouvoir des mots et des récits”.

A lire :  Un Robot Humanoïde Chinois Bat un Humain en Boxe

L’investisseur Sam Lessin a récemment partagé un article qui souligne que le problème lié à l’IA ne relève pas d’une crise de l’emploi, mais d’une crise de **sens** : le récit industriel traditionnel (travailler dur, améliorer sa vie) a cédé la place à deux options peu réjouissantes (« survivre et recevoir de l’abondance, mais sans sens » ou « l’échelle du travail a disparu, et vous appartenez maintenant à une classe sociale permanente »).

Alberto Romero a mis en garde en affirmant que “le retour de la **révolte**” des Luddistes pourrait survenir : quand la technologie est éloignée et abstraite, “la foule dirigera ses émotions indiscutables vers des cibles humaines”. Dans des scénarios de guerre, comme un conflit entre les États-Unis et l’Iran, les centres de données pourraient devenir des cibles.

Notre avis

Les précédents rapports sur l’IA étaient des tableaux de performance. Cette fois-ci, c’est un **thermomètre**, et la situation est préoccupante. Les laboratoires ont passé deux ans à se concurrencer sur les capacités, croyant que la **confiance** du public viendrait naturellement. Les données de Stanford démontrent le contraire.

Le commentaire d’**Andrew Curran** cette semaine prend une nouvelle dimension dans ce contexte ; il souligne que des modèles à la pointe comme Mythos sont devenus si coûteux qu’ils doivent être réservés à quelques clients privilégiés, laissant les personnes les plus inquiets de l’IA à l’écart de cette technologie.

Ce fossé ne se comble pas de lui-même. Pour le surmonter, une action est nécessaire ; chez **Le Neurone**, nous croyons que cela passe par des solutions open source, accessibles localement et intégrées dans chaque nouvel ordinateur.

A lire :  L'Ascension Inébranlable d'OpenAI

Note de l’éditeur : Ce contenu a été initialement publié dans la newsletter de notre publication sœur, Le Neurone. Pour plus d’informations, abonnez-vous à sa newsletter ici.

Grant Harvey est le rédacteur quotidien de *Le Neurone*, une newsletter d’ADGO.ca dédiée à l’IA pour les non-initiés. Il consacre ses journées à analyser les outils d’IA et le secteur en général, puis à les expliquer dans un langage accessible à tous.

FAQ

Qu’est-ce que le rapport 2026 de Stanford HAI ?

Le rapport 2026 de Stanford HAI est une publication qui analyse l’état actuel de l’intelligence artificielle, incluant des données sur l’opinion publique et l’impact des technologies d’IA.

Quels sont les principaux résultats du rapport ?

Les résultats montrent un écart marqué entre l’enthousiasme des experts et les préoccupations du public à propos de l’IA, notamment en ce qui concerne la santé et l’emploi.

Comment la comparaison entre les différents pays est-elle établie dans le rapport ?

Le rapport compare la performance des modèles d’IA entre les États-Unis et la Chine, mettant en lumière la réduction de l’écart technologique.

En quoi consiste la recrudescence du luddisme dans le contexte de l’IA ?

Le luddisme fait référence à une forme de révolte contre la technologie, se manifestant ici par une résistance envers les impacts négatifs de l’IA sur l’emploi et la société.

Quelle est l’importance de l’open source dans le développement de l’IA ?

L’open source est crucial pour garantir un accès équitable aux technologies d’IA, permettant ainsi une utilisation généralisée et réduisant les inégalités associées.