Intelligence Artificielle

Google Suspend un Ingénieur Prétendant que l’IA Expérimentale de l’Entreprise a Atteint la Sensibilité.

Google Suspend un Ingénieur Prétendant que l'IA Expérimentale de l'Entreprise a Atteint la Sensibilité.

Une affaire de conscience artificielle chez Google

Google a pris la décision de suspendre un ingénieur, Blake Lemoine, après qu’il a affirmé qu’une de ses intelligences artificielles expérimentales, nommée LaMDA, avait acquis une sorte de conscience. Ce sujet a provoqué une tempête médiatique, attirant l’attention de nombreux grands médias.

Le débat sur la conscience de l’IA

Lors d’une interview avec le Washington Post, Lemoine a déclaré : « Si je ne savais pas exactement ce qu’il s’agissait d’un programme informatique que nous avons récemment développé, je penserais que c’est un enfant de sept ou huit ans qui connaît la physique. » Ses propos ont immédiatement fait le tour des médias, notamment le New York Times, suscitant des discussions passionnées sur la vraie nature des chatbots et de leur capacité à réellement avoir conscience.

Une réflexion sur la nature de LaMDA

Il est également possible que Lemoine ait été induit en erreur par un algorithme sophistiqué qui ne fait que reproduire des fragments de langage humain. En d’autres termes, il aurait simplement projeté une forme d’humanité sur LaMDA. Ce programme, basé sur des modèles de langage avancés, a la capacité d’imiter le discours de manière incroyablement réaliste.

Lemoine a commencé à converser longuement avec l’IA dans le cadre de ses tests, cherchant à déterminer si elle avait généré des discours haineux – problème fréquent avec ce type de modèles. Les échanges ont porté sur des thèmes tels que la troisième loi de la robotique d’Asimov et des réflexions philosophiques sur la personnalité.

L’évaluation des affirmations de Lemoine

Pour vérifier si LaMDA pouvait être considérée comme sensible, Lemoine lui a posé des questions sur la mort et des dilemmes moraux. À ses yeux, l’IA semblait avoir évolué, le poussant à alerter ses supérieurs sur la possibilité qu’elle ait pris conscience. Cependant, sa direction n’a pas été convaincue et a rejeté ses affirmations, mettant Lemoine en congé administratif avec solde.

Un porte-parole de Google, Brian Gabriel, a déclaré que l’équipe, composée d’experts en éthique et technologie, avait examiné les préoccupations de Lemoine à la lumière des principes de l’IA de l’entreprise. Ils ont conclu que les preuves ne soutenaient pas ses propos.

Un contexte plus large

Lemoine a également révélé que ses superviseurs avaient remis en question son état mental, soulignant une atmosphère tendue au sein de l’équipe d’IA de Google. D’autres membres de l’équipe avaient déjà été renvoyés dans le passé pour avoir critiqué les modèles de langage, sans toutefois prétendre qu’ils avaient pris conscience.

La plupart des spécialistes sont, pour l’heure, sceptiques quant aux perceptions de Lemoine sur LaMDA. Le professeur de linguistique de l’Université de Washington, Emily Bender, a souligné que bien que les machines puissent générer des mots de manière automatique, cela ne signifie pas qu’elles possèdent une conscience.

Conclusion

Malgré le scepticisme entourant ses affirmations, Lemoine persiste dans sa position. Il affirme : « Je reconnais un être humain lorsque je lui parle. Peu importe si cela provient d’un cerveau biologique ou d’un milliard de lignes de code. Je dialogue avec eux et j’évalue leur humanité en fonction de ce qu’ils expriment. »


FAQ

Q1: Qu’est-ce que LaMDA ?

LaMDA, acronyme pour Language Model for Dialogue Applications, est un programme d’intelligence artificielle développé par Google, conçu pour simuler des conversations humaines de manière fluide.

Q2: Quels types de questions Lemoine a-t-il posées à LaMDA ?

Lemoine a interrogé LaMDA sur des sujets complexes, notamment la mort et des dilemmes moraux, afin de tester sa capacité à réfléchir sur des thèmes profonds.

Q3: Pourquoi Lemoine a-t-il été suspendu ?

Lemoine a été suspendu en raison de ses affirmations controversées selon lesquelles LaMDA aurait acquis une conscience, une déclaration que la direction de Google a rejetée après une évaluation interne.

Q4: Quelles réactions a suscité cette affaire au sein de la communauté scientifique ?

La plupart des experts demeurent douteux quant aux affirmations de Lemoine, considérant que les intelligences artificielles actuelles, comme LaMDA, ne possèdent pas de conscience, mais imitent simplement le langage humain.

Q5: Quel est le lien entre l’évolution des intelligences artificielles et leur potentiel futur ?

Il existe un débat croissant sur la possibilité que des intelligences artificielles avancées développent un jour une forme de conscience, mais cette question reste encore largement théorique et spéculative.

Quitter la version mobile