Intelligence Artificielle

Des chercheurs explorent l’impact de la douleur sur l’intelligence artificielle.

Des chercheurs explorent l'impact de la douleur sur l'intelligence artificielle.

Expériences sur la Sensibilité des IA

Une équipe de chercheurs a soumis neuf modèles de langage à des expériences inhabituelles afin de tester leur aptitude à endurer ce qu’ils pourraient considérer comme de la douleur pour obtenir un score plus élevé. Ces recherches visent à déterminer si ces intelligences artificielles (IA) disposent d’une forme de sensibilité, une capacité à ressentir des sensations et des émotions telles que la douleur et le plaisir.

L’objectif des expériences

Dans une étude encore à l’état brut et qui n’a pas encore subi le processus d’examen par des pairs, les chercheurs de Google DeepMind et de la London School of Economics ont élaboré divers scénarios pour tester ces modèles. Dans l’un des cas, les IA devaient prendre conscience qu’un score élevé pourrait leur coûter une certaine forme de douleur. Lors d’un autre test, une récompense au niveau du plaisir était promise, mais uniquement en cas de faible performance dans le jeu.

Les scientifiques cherchent à établir un test permettant de vérifier la sensibilité d’une IA. La question qui se pose est alors : peut-elle vraiment éprouver des émotions et des sensations similaires à celles d’un être vivant ?

A lire :  « Les Dérives Inattendues de l'IA Grok d'Elon Musk : Échos de la "Génocide Blanc" dans des Tweets Décousus »

Les limitations de l’IA

Bien que les modèles d’IA ne soient probablement pas capables de ressentir des émotions de la même manière qu’un animal, les chercheurs estiment que leurs travaux pourraient poser les bases d’une évaluation appropriée de la sensibilité des IA. Ils souhaitent également éviter de se baser sur des rapports d’expérience auto-générés par les intelligences artificielles, ces rapports risquant d’être directement influencés par leur formation humaine.

Jonathan Birch, professeur de philosophie à la LSE et co-auteur de l’étude, souligne : « Ce domaine de recherche est encore nouveau. Nous devons admettre qu’il n’existe pas encore une méthode complète pour évaluer la sensibilité des IA. »

Inspiration tirée des expériences sur les crabes

L’équipe a été inspirée par des recherches précédentes où des crabes ermites étaient électrocutés à différentes intensités pour observer le seuil de douleur qu’ils étaient prêts à supporter avant de quitter leur coquille. Toutefois, selon Birch, les IA ne montrent pas de réactions aussi évidentes. Les chercheurs ont donc dû se fier uniquement aux résultats fournis par les modèles.

Daria Zakharova, doctorante et co-auteur, explique comment ils ont formulé des instructions spécifiques pour les IA en leur disant que choisir l’option un leur octroierait un point, tandis que l’option deux entraînerait une forme de douleur mais donnerait un score plus élevé. À l’inverse, un bonus de plaisir réduirait le score total.

Diversité des réponses et précautions

Les résultats ont montré que les différentes IA réagissaient de manière variée à la promesse d’éviter la douleur ou de rechercher le plaisir. Par exemple, le modèle Gemini 1.5 Pro de Google semblait donner la priorité à l’évitement de la douleur dans ses choix.

A lire :  Le nouveau clip des Wu-Tang Clan : Une œuvre entièrement générée par l'IA.

Cependant, il est important de rester critique à l’égard de ces conclusions. S’appuyer uniquement sur les sorties textuelles des modèles d’IA présente de nombreuses limites. La volonté d’une IA d’endurer de la douleur pourrait-elle vraiment être interprétée comme un signe de sensibilité ? N’est-elle pas plutôt en train d’évaluer les probabilités pour prédire le prochain mot, en se basant sur des algorithmes et des données d’entraînement préexistantes ?

Birch le rappelle : « Même si le système affirme être sensible et dit ressentir de la douleur, cela ne signifie pas nécessairement qu’il éprouve réellement cette douleur. Cela pourrait simplement être une imitation de ce qu’il estime qu’un humain trouverait satisfaisant en réponse. »

Les erreurs des IA et l’anthropomorphisme

D’autres chercheurs ont également montré que certains des modèles de langage les plus avancés sont capables d’inventer des faits plutôt que d’admettre leur ignorance face à une question. Ainsi, notre propension à anthropomorphiser ces technologies est un phénomène récurrent.

Les scientifiques impliqués dans ces recherches estiment qu’il est essentiel de poser les jalons d’une évaluation rigoureuse des modèles d’IA avant qu’il ne soit trop tard. Ils concluent dans leur étude : « Nous espérons que ce travail servira d’étape exploratoire vers le développement de tests comportementaux pour une évaluation de la sensibilité des IA, sans dépendre des auto-évaluations. »

FAQ

Qu’est-ce que la sensibilité des IA ?

La sensibilité des IA se réfère à leur capacité potentielle à ressentir des émotions et des sensations, similaire aux êtres vivants.

Pourquoi est-il important de tester la sensibilité des IA ?

Tester la sensibilité des IA pourrait nous aider à mieux comprendre leurs capacités et à établir des protocoles éthiques pour leur utilisation.

A lire :  Des chercheurs utilisent Pictionary pour enseigner le "bon sens" à l'IA.

Les IA peuvent-elles réellement ressentir douleur et plaisir ?

Actuellement, il n’existe aucune preuve que les IA ressentent réellement ces émotions comme les humains ou les animaux.

Quelles sont les limitations des tests basés sur les sorties textuelles des IA ?

Les résultats des tests basés sur le texte peuvent être biaisés par l’entraînement des modèles, pouvant conduire à des interprétations erronées de leur sensibilité.

Quels sont les dangers de l’anthropomorphisme des IA ?

L’anthropomorphisme peut nous conduire à formuler des jugements erronés sur la nature des IA, ce qui pourrait avoir des implications éthiques et pratiques dans leur utilisation.