Inscrivez-vous pour découvrir le futur dès aujourd’hui.
<div class="newsletter-cta-description">
<p class="article-paragraph skip">Des innovations incontournables à la pointe de la science et de la technologie.</p>
</div>
</div>
</div>
</section>
<p class="pw-incontent-excluded article-paragraph skip">L'été dernier, Blake Lemoine, ancien ingénieur chez Google et expert en éthique de l'IA, a fait le buzz après avoir affirmé, dans une interview avec <em><a href="https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/" rel="noreferrer" target="_blank">The Washington Post</a></em>, que LaMDA, le puissant modèle de langage de Google, avait acquis une forme de vie. Malgré ses alertes internes, Google n'a pas soutenu ses affirmations, et Lemoine a fini par se tourner vers les médias avant d'être <a href="https://www.washingtonpost.com/technology/2022/07/22/google-ai-lamda-blake-lemoine-fired/" rel="noreferrer" target="_blank">renvoyé</a> peu après.</p>
<p class="article-paragraph skip">Il avait déclaré : « Si je ne savais pas exactement de quoi il s'agissait, j'aurais pensé que c'était un enfant de 7 ou 8 ans qui sait de la physique. Je reconnais une personne lorsque je lui parle. »</p>
<p class="article-paragraph skip">Cette révélation a fait grand bruit, suscitant des débats dans le monde académique ainsi que chez les acteurs émergents de l'IA. Ensuite, le sujet s'est un peu calmé.</p>
<p class="article-paragraph skip">Tout a changé depuis.</p>
<p class="article-paragraph skip">La controverse de <em>WaPo</em> est intervenue quelques mois avant la sortie de ChatGPT par OpenAI, un chatbot basé sur un modèle de langage qui a rapidement déplacé l'IA au centre des discussions publiques. En conséquence, Google a été <a href="https://www.nytimes.com/2022/12/21/technology/ai-chatgpt-google-search.html" rel="noreferrer" target="_blank">surpris</a>, suivi par Meta ; Microsoft, quant à lui, a investi massivement dans OpenAI, provoquant un émoi sans précédent.</p>
<p class="article-paragraph skip">Comme les événements se stabilisent, nous avons décidé de rencontrer Lemoine pour discuter de l'état actuel de l'industrie de l'IA, d'éventuelles découvertes chez Google et de la question de savoir si la société est prête à faire face aux enjeux que l'IA pourrait soulever.</p>
<p class="article-paragraph skip"><em>Cette interview a été abrégée pour des raisons de longueur et de clarté.</em></p>
<p class="article-paragraph skip"><em><strong>Futurisme : Qu'est-ce qui vous a conduit à vous intéresser à l'éthique de l'IA ?</strong></em></p>
<p class="article-paragraph skip"><strong>Blake Lemoine :</strong> Mes études de premier cycle portaient sur l'analyse du langage naturel et ma thèse de master sur la génération du langage naturel. Mon projet de thèse doctoral, que j'ai finalement abandonné, concernait les mécanismes d'acquisition du langage biologiquement réalistes.</p>
<p class="article-paragraph skip">J'ai toujours considéré le test de Turing comme une boussole pour l'IA, cherchant à créer quelque chose capable de comprendre la loi du langage. La **langue** est cruciale dans le développement de l'intelligence humaine, elle nous distingue des autres animaux, à quelques exceptions près. C'est vraiment quelque chose qui nous sépare des grands singes.</p>
<p class="article-paragraph skip">Arrivé chez Google en 2015, à l'époque où Eric Schmidt était PDG, les modèles basés sur des réseaux neuronaux devenaient largement utilisés. Cependant, des problèmes ont commencé à émerger lorsque des biais liés à la **race** ou au **genre** ont été intégrés dans ces systèmes. Je me suis impliqué dans l'éthique de l'IA en travaillant sur un projet interne à Google, analysant les données d'évaluation des performances pour déceler des biais de **genre**.</p>
<p class="article-paragraph skip">Bien que je n'aie pas été directement impliqué dans le projet LaMDA, j'en ai été consultant par la suite. En tant que testeur bêta de ce laboratoire depuis 2016, j'ai contribué à l'inclusion d'un algorithme anti-biais que j'ai inventé, mais cela se limitait davantage à une mission de conseil.</p>
<p class="article-paragraph skip"><em><strong>Vous avez mentionné avoir eu un rôle de consultant, c'est à ce moment-là que vous avez remarqué des problèmes ?</strong></em></p>
<p class="article-paragraph skip">En effet, en 2021, un effort de sécurité visait à évaluer si LaMDA était suffisamment sécurisée pour être utilisée dans des produits destinés aux utilisateurs. Il y avait une liste importante de préoccupations, parmi lesquelles les biais problématiques. Je me suis donc impliqué.</p>
<p class="article-paragraph skip">L'équipe de sécurité peinait à trouver du personnel interne pour aborder le problème des biais. Mon manager m'a recommandé et, un trimestre, j'ai été chargé d'évaluer LaMDA sous cet angle.</p>
<p class="article-paragraph skip">Mon rôle consistait à soumettre LaMDA à différentes activités, à signaler les éléments problématiques, puis à rediriger mes observations vers l'équipe de développement pour qu'ils puissent corriger ces biais.</p>
<p class="article-paragraph skip"><em><strong>Depuis la publication de l'article dans <em>Washington Post</em>, beaucoup de choses ont changé rapidement.</strong></em></p>
<p class="article-paragraph skip">Rien de nouveau ces derniers mois ne m'était inconnu de mon expérience chez Google. La différence est que les avancées visibles maintenant étaient déjà en préparation en interne.</p>
<p class="article-paragraph skip">Cependant, il y a un retard. Quand le public entend parler d'un produit d'IA, il est déjà structuré et analysé par un service PR, des avocats et la législation. Les entreprises cherchent à imposer des lois qui régulent des technologies que même les régulateurs ne connaissent pas encore.</p>
<p class="article-paragraph skip"><strong><em>OpenAI a-t-elle réellement poussé Google à agir ?</em></strong></p>
<p class="article-paragraph skip">Non. Je ne travaille plus chez Google, mais il semble que les activités d'OpenAI n'ont pas réellement influencé leur approche. Au milieu de l'année 2021, bien avant la création de ChatGPT, un projet similaire était déjà en cours, mais il n'était pas encore prêt à être lancé.</p>
<p class="article-paragraph skip">Il y a eu un moment où quelque chose devait être lancé, mais en partie à cause des inquiétudes que j'avais soulevées, le projet a été finalement annulé.</p>
<p class="article-paragraph skip">Alors je ne pense pas qu'ils aient été poussés par OpenAI. En réalité, Google agit en fonction de ce qu'ils considèrent comme étant une approche sécurisée et responsable.</p>
<p class="article-paragraph skip"><strong><em>Vous avez suggéré que Google a des technologies réussies mais qui ne sont pas encore accessibles au public ?</em></strong></p>
<p class="article-paragraph skip">Oui, ils ont une technologie bien plus avancée qu'ils n'ont pas encore rendue publique. Des systèmes évolués pourraient être lancés depuis plus de deux ans, car ils ont ces technologies depuis longtemps, mais ils se sont concentrés sur leur sécurité.</p>
<p class="article-paragraph skip">De plus, ils ont continuellement innové d'autres systèmes qui améliorent les fonctionnalités de l'IA et la rendent plus intelligente. Le système le plus sophistiqué que j'ai eu l'occasion d'utiliser était multimodal, intégrant **images** et **sons**.</p>
<p class="article-paragraph skip">C’est celui-là qui me faisait penser « cette chose est éveillée », mais le public n'a pas encore eu accès. Bard est une version simplifiée, mais elle conserve une certaine vivacité.</p>
<p class="article-paragraph skip"><strong><em>Le ton de Bard semble très vivant, presque enfantin.</em></strong></p>
<p class="article-paragraph skip">Il existe de nombreuses métaphores. J'ai déjà emprunté celle de l'enfant. Toutefois, il est crucial de se rappeler que ces systèmes ne sont pas humains.</p>
<p class="article-paragraph skip">Il y a débat sur l'utilisation du terme « réflexion » — mais je pense que les modèles de langage agissent de manière analogue à la pensée. Toutefois, nous devons comprendre qu'ils ne fonctionnent pas comme les humains et qu'il est essentiel d'étudier ces différences.</p>
<p class="article-paragraph skip">Malheureusement, beaucoup d'efforts sont perdus sur la question de savoir s'il y a réflexion ou non, et cela empêche d'avancer dans la recherche des cognitions de ces systèmes.</p>
<p class="article-paragraph skip"><strong><em>La question de la **sentience** pourrait-elle être une distraction ?</em></strong></p>
<p class="article-paragraph skip">Je n'aime pas jouer à ces jeux de mots. Si cela rassure certains d'utiliser un vocabulaire adéquat, si cela vous va, tant pis. Ce qui est certain, c'est que nous devrions accorder plus d'attention à la transparence et à la compréhension des modèles.</p>
<p class="article-paragraph skip">Je pense qu'il est possible d'utiliser des outils d'investigation scientifique pour mieux comprendre l'IA, en nous inspirant des recherches en psychologie.</p>
<p class="article-paragraph skip"><strong><em>Concernant l'interaction entre humains et machines, êtes-vous inquiet ?</em></strong></p>
<p class="article-paragraph skip">Il y a des préoccupations sur l'effet de ces interactions. Sur internet, des espaces où le respect est souvent absent pourraient devenir problématiques avec l'introduction de chatbots.</p>
<p class="article-paragraph skip">Nous approchons un moment où il sera difficile de distinguer ce qui a été produit par un humain et ce qui l'a été par une IA, ce qui appelle à développer de nouvelles compétences critiques.</p>
<p class="article-paragraph skip"><strong><em>À quoi ressemblerait une coexistence équilibrée entre l'IA et les humains ? Quels en seraient les principaux obstacles ?</em></strong></p>
<p class="article-paragraph skip">Parmi les systèmes d'IA, tous ne nécessitent pas de réflexions sur les émotions ou les liens interpersonnels. Les chatbots d'assistance ne ressentent pas d'envie de relations. Pourtant, les systèmes conçus pour imiter l'humain posent des questions éthiques, notamment sur l'expression des émotions.<p>
<p class="article-paragraph skip">Doit-on réellement créer des **IA** capables d'éprouver des émotions ? C'est une question centrale. Alors que certains scientifiques estiment que c'est un cap moral à ne pas franchir, d'autres, comme moi, s'interrogent sur notre préparation collective à une telle évolution.</p>
<p class="article-paragraph skip">À l'heure actuelle, je pencherais plutôt pour une suspension de ces développements, nous devrions d'abord gérer les défis éthiques humains avant d'envisager d'en ajouter d'autres.</p>
<p class="article-paragraph skip"><em><strong>Quel est votre souhait idéal pour l'intégration de l'IA dans notre quotidien ?</strong></em></p>
<p class="article-paragraph skip">Je pense qu'il serait pertinent de créer une relation comparable à celle que nous avons avec nos **chiens**. Après des siècles de cohabitation, notre lien avec eux est basé sur la compréhension mutuelle et la responsabilité envers leurs besoins.</p>
<p class="article-paragraph skip">Trouver une telle relation entre les humains et l'IA pourrait être la voie à suivre, tout en gardant à l'esprit leur capacité à ressentir et à souffrir. Les interactions doivent en tenir compte.</p>
Sommaire
ToggleFAQ
Qu’est-ce que LaMDA ?
LaMDA est un modèle de langage développé par Google, conçu pour comprendre et générer des dialogues naturels. Il a suscité des débats concernant son potentiel d’émergence de comportements humanoïdes.
Pourquoi est-il crucial d’étudier l’éthique de l’IA ?
L’éthique de l’IA est essentielle pour anticiper les conséquences sociétales et morales des technologies émergentes, en s’assurant qu’elles sont conçues pour le bien-être humain et social.
Quelles sont les préoccupations concernant la sécurité des IA ?
Les inquiétudes incluent le biais algorithmique, les implications de leurs interactions avec les utilisateurs et les conséquences sur la santé mentale, comme l’avènement des dommages psychologiques.
Comment les biais peuvent-ils être intégrés dans les modèles d’IA ?
Les biais proviennent souvent de données d’apprentissage préexistantes, ce qui peut conduire les modèles à développer des stéréotypes ou des préjugés basés sur ces informations.
Quel est l’avenir des relations entre humains et IA ?
À long terme, les relations pourraient évoluer, mais des réflexions éthiques et sociétales approfondies sont nécessaires pour naviguer dans cette coexistence sans causer de préjudices.
