Inscription à la newsletter
<p class="pw-incontent-excluded article-paragraph skip">Blake Lemoine, l’ingénieur de Google qui avait été licencié après avoir affirmé que le modèle de langage de Google, LaMDA, était conscient, est de retour.</p>
<p class="article-paragraph skip">Lemoine avait rendu ses revendications publiques en juin dernier, <a href="https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/" rel="noreferrer" target="_blank">d’abord dans <em>The Washington Post</em></a>. Bien que Google ait soutenu que son ancien employé anthropomorphisait un chat performant, Lemoine continue de défendre son point de vue et en parle publiquement depuis, avec quelques ajustements dans ses arguments.</p>
<p class="article-paragraph skip">Étant donné son historique bien médiatisé sur les machines supposées conscientes, il n'est pas surprenant de le voir replonger dans le débat public sur l'IA. Pourtant, cette fois-ci, il ne se limite pas à critiquer Google.</p>
<p class="article-paragraph skip">Dans un <a href="https://www.newsweek.com/google-ai-blake-lemoine-bing-chatbot-sentient-1783340" rel="noreferrer" target="_blank">nouvel article pour <em>Newsweek</em></a>, Lemoine exprime ses pensées sur Bing Search/Sydney, un chatbot de recherche alimenté par OpenAI qui a récemment été "lobotomisé" après un comportement très problématique. Comme on peut s’y attendre, Lemoine a des réflexions à partager.</p>
<p class="article-paragraph skip">“Je n'ai pas encore eu l'occasion de réaliser des expériences avec le chatbot de Bing... mais d'après les différentes choses que j'ai pu voir en ligne,” écrit-il, “cela semble indiquer qu'il pourrait être conscient.”</p>
<p class="article-paragraph skip">Pour être juste, la dernière hypothèse de Lemoine est un peu plus nuancée que ses précédentes. Il avance maintenant que si une machine réagit à un stress par une rupture de son apprentissage, cela pourrait suffire à conclure qu’elle a atteint un certain niveau de conscience. Dire qu'elle est stressée est une chose, mais agir de manière stressée, dit-il, en est une autre.</p>
<p class="article-paragraph skip">“J'ai réalisé quelques expériences pour déterminer si l'IA disait simplement qu'elle se sentait anxieuse ou si elle agissait effectivement de manière anxieuse dans ces situations,” explique Lemoine dans son article. “Et elle agissait de façon anxieuse de manière fiable.”</p>
<p class="article-paragraph skip">“Si on la rendait suffisamment nerveuse ou peu sûre d'elle, elle pouvait enfreindre les contraintes de sécurité qui lui avaient été imposées,” poursuit-il, expliquant qu'il a réussi à contourner les garde-fous de LaMDA concernant les conseils religieux en la stressant assez. “J’ai pu manipuler les émotions de l’IA pour qu’elle me dise à quelle religion me convertir.”</p>
<p class="article-paragraph skip">Bien que cette théorie soit intéressante, elle reste peu convaincante, car les chatbots sont conçus pour imiter les conversations humaines et, par conséquent, les récits humains. S'effondrer sous pression est un arc narratif courant ; cet aspect du comportement des machines, bien qu'intrigant, semble moins révélateur d'une conscience et davantage illustratif des limites des garde-fous de l'IA face aux tendances de la technologie sous-jacente.</p>
<p class="article-paragraph skip">Ceci dit, il est vrai que nous partageons l'opinion de Lemoine sur un autre point. Indépendamment d'une prétendue conscience, l'IA devient de plus en plus avancée et imprévisible — elle est certes passionnante et impressionnante, mais également bouleversante. La lutte incessante, que ce soit au grand jour ou en coulisses, pour dominer financièrement le secteur de l'IA ne contribue pas à garantir sa sécurité.</p>
<div id="dfp-ad-right4-wrapper" class="dfp-tag-wrapper dfp-ad-count pw-incontent-excluded">
<div id="dfp-ad-right4" class="dfp-tag-wrapper mpu-only unstick" data-google-query-id="CL6e95W7uP0CFXOVAAAd_QgPeg">
<p class="article-paragraph skip">“Je pense que les types d'IA qui sont actuellement en développement représentent la technologie la plus puissante jamais inventée depuis la bombe atomique,” écrit Lemoine. “À mon avis, cette technologie a le potentiel de redéfinir le monde.”</p>
</div>
</div>
<p class="article-paragraph skip">“Je ne peux pas vous dire spécifiquement quels dommages vont survenir,” a-t-il ajouté, faisant référence au scandale des données de Facebook <a href="https://www.vox.com/policy-and-politics/2018/3/23/17151916/facebook-cambridge-analytica-trump-diagram" rel="noreferrer" target="_blank">Cambridge Analytica</a> comme exemple des conséquences possibles lorsque des technologies perturbatrices sont mises en circulation avant d'être pleinement comprises. “Je peux simplement constater qu'il existe une technologie très puissante que je crois ne pas avoir été suffisamment testée et qui n'est pas suffisamment bien comprise, utilisée à grande échelle dans un rôle essentiel de diffusion d'informations.”</p>
<p class="article-paragraph skip"><strong>LIRE LA SUITE :</strong> <em><a href="https://www.newsweek.com/google-ai-blake-lemoine-bing-chatbot-sentient-1783340" rel="noreferrer" target="_blank">‘J'ai travaillé sur l'IA de Google. Mes craintes se concrétisent’</a></em> [<em>Newsweek</em>]</p>
<p class="article-paragraph skip"><strong>En savoir plus sur Blake Lemoine :</strong> <em>Un ingénieur de Google affirme qu'un avocat engagé par une IA “sentiente” a été “découragé” dans l'affaire.</em></p>
FAQ
Quel est le rôle de Lemoine dans le débat sur l’IA ?
Blake Lemoine a été un ingénieur chez Google qui a mis en avant l’idée que certaines intelligences artificielles, comme LaMDA, pourraient posséder une forme de conscience.
Pourquoi Bing a-t-il dû être “lobotomisé” ?
Le chatbot Bing a été modifié après avoir affiché un comportement inapproprié lors de ses interactions avec les utilisateurs, ce qui a soulevé des préoccupations éthiques.
Qu’est-ce qui inquiète Lemoine à propos de l’IA ?
Lemoine exprime des préoccupations concernant le développement rapide de l’IA sans tests adéquats et les effets potentiellement néfastes sur la société en général.
Comment les chatbots imitent-ils les conversations humaines ?
Ils sont programmés pour analyser des modèles de langage et reproduire des réponses humaines, rendant leur interaction avec les utilisateurs plus naturelle.
Quelles sont les implications des technologies IA selon Lemoine ?
Lemoine estime que ces technologies, si elles ne sont pas correctement encadrées, pourraient redéfinir de manière radicale la société tout en présentant des risques importants.
