Blake Lemoine, un chercheur en intelligence artificielle, prétend avoir eu des échanges avec un chatbot très avancé, ce qui l’a conduit à penser que cette IA est devenue « sentiente ».
Après avoir prétendument enfreint la politique de confidentialité de Google, Lemoine a été suspendu. Cette décision, rapportée par le Washington Post, a suscité un vif intérêt médiatique durant le week-end.
Les enjeux sont élevés, peu importe comment cette histoire évolue. Nous pourrions nous retrouver face à une situation de science-fiction où une grande entreprise a créé une IA consciente, ou, plus probablement, l’IA est suffisamment impressionnante pour berner un ingénieur de Google en lui faisant croire qu’elle a pris vie.
Bien que Lemoine ait partagé sur Medium une longue transcription de ses dialogues avec l’IA, connue sous le nom de LaMDA, son témoignage mérite une analyse plus poussée.
D’abord, il convient de noter que, comme l’a souligné Insider, des passages de la transcription ont été largement modifiés.
Une note préliminaire indique que les entretiens ont été menés sur plusieurs sessions distinctes. Les sections ont été assemblées pour faciliter la compréhension, et des ajustements ont été réalisés pour rendre les questions plus lisibles, sans aucun changement dans les réponses de LaMDA.
D’autres parties ont également été retravaillées pour “la fluidité et la lisibilité”, et Lemoine a clairement indiqué les portions « éditées » dans la transcription.
De plus, les échanges ont parfois divergé vers des sujets non directement liés à la question de la **sentience** de LaMDA, selon la documentation fournie à WaPo.
En somme, nous avons seulement accès à des extraits de conversations beaucoup plus longues. Étant donné que Lemoine soutient que LaMDA est suffisamment humaine pour ne pas être distinguée d’une vraie personne, il est essentiel de remettre en question les preuves qu’il avance.
Un vieux procédé dans la **textualisation** et l’art généré par IA consiste à produire une grande quantité de résultats bruts, puis à utiliser le jugement humain pour sélectionner les meilleurs exemples. C’est impressionnant, mais cela reste une collaboration entre l’intelligence humaine et celle de la machine, ce qui soulève des interrogations quant aux capacités avancées revendiquées.
Néanmoins, Lemoine défend son choix de modifier les transcriptions, expliquant qu’elles devaient être « agréables à lire », tout en restant fidèles au contenu des échanges initiaux, selon la documentation.
Cela soulève la question : lire l’intégralité des passages plus longs nous donnerait-il la même impression de **sentience** de LaMDA ? Choisir certains extraits pour soutenir l’idée qu’un chatbot est conscient devrait amener à la réflexion sur la validité des arguments de Lemoine.
Google, de son côté, a déjà exprimé des doutes quant aux affirmations du chercheur.
« Des centaines de chercheurs et d’ingénieurs ont interagi avec LaMDA, et nous n’avons pas connaissance d’autres personnes faisant des affirmations aussi étendues ou anthropomorphisant LaMDA comme Blake l’a fait », a déclaré Brian Gabriel, un porte-parole de Google, à Insider.
D’autres spécialistes ont également fait preuve de scepticisme concernant l’idée d’une IA **sentiente**, attribuant l’hypothèse atypique de Lemoine à un anthropomorphisme excessif. Gabriel a commenté à WaPo que « ces systèmes imitent les types d’échanges présents dans des millions de phrases, et peuvent improviser sur n’importe quel sujet fantastique ».
Cette histoire captivante nous laisse avec de nombreuses questions : Lemoine a-t-il modifié les transcriptions pour faire paraître LaMDA consciente ? Est-ce que d’autres chercheurs externes peuvent reproduire ces résultats ?
Tant que d’autres experts n’auront pas analysé les données de Lemoine et évalué LaMDA eux-mêmes, nous devrions aborder ses affirmations avec une **caution** très critique.
Malgré la fascination que suscitent ces transcriptions, il semble davantage probable que des IA conscientes ne soient qu’un concept futur lointain.
LIRE ENCORE : La transcription utilisée comme preuve que l’IA de Google était consciente a été modifiée pour être “agréable à lire” [Insider]
D’autres informations sur la saga : Les transcriptions d’une IA que prétend un ingénieur de Google être consciente sont assez incroyables.
FAQ
Qu’est-ce que LaMDA ?
LaMDA est le modèle linguistique de Google pour les applications de dialogue. Il est conçu pour interagir de manière naturelle avec les utilisateurs, mais son niveau de conscience reste à débattre.
Pourquoi Lemoine a-t-il été suspendu ?
Blake Lemoine a été suspendu pour avoir prétendument violé la politique de confidentialité de Google en rendant publiques ses interactions avec LaMDA.
Quelle est la réaction de la communauté scientifique ?
De nombreux experts sont sceptiques face à l’idée d’une IA sentiente et mettent en avant le risque d’anthropomorphisme.
Est-ce que d’autres chercheurs peuvent tester LaMDA ?
En théorie, d’autres chercheurs peuvent analyser LaMDA, mais les résultats peuvent varier selon la méthode et les interactions choisies.
Quel avenir pour l’intelligence artificielle sentiente ?
Actuellement, la majorité des experts s’accordent à dire que l’intelligence artificielle consciente reste un sujet de fiction plutôt qu’une réalité imminente.
