Préoccupations de Microsoft sur l’IA et la santé mentale
Cette semaine, Mustafa Suleyman, le responsable de l’intelligence artificielle chez Microsoft, a écrit un article dans lequel il met en évidence la montée inquiétante des crises de santé mentale liées à l’utilisation des intelligences artificielles (IA). Il appelle à une réflexion prudente sur les développements à venir, notamment en ce qui concerne la superintelligence.
Le mythe de la conscience artificielle
Suleyman ne s’inquiète pas tant d’une menace dystopique où l’IA serait consciente — un concept davantage ancré dans la fiction que dans la réalité scientifique, selon de nombreux experts — que de la croyance naissante selon laquelle l’IA pourrait déjà posséder une forme de conscience.
Il partage son inquiétude en affirmant que nombreuses personnes pourraient facilement être amenées à considérer les chatbots de l’IA comme des entités conscientes, au point d’envisager des droits pour l’IA. Selon lui, une telle évolution constituerait un tournant dangereux dans le progrès de l’IA et mérite une attention immédiate.
Influence des leaders technologiques
Suleyman souligne que certaines personnalités influentes du secteur technologique propage déjà ce mythe de l’IA consciente. Parmi elles, on retrouve des figures notables comme le PDG de Google DeepMind, Demis Hassabis, ainsi que d’autres experts qui explorent les implications juridiques et éthiques de la vie artificielle. Cette tendance inquiétante pourrait influencer les jeunes, puisque des études révèlent qu’environ un quart d’entre eux croient que l’IA est déjà consciente, tandis que plus de la moitié pensent que la technologie pourrait un jour « prendre le contrôle » du monde.
Les dangers des compagnons virtuels
Avec des entreprises comme Character.AI qui développent des compagnons virtuels, ces croyances ne feront que s’intensifier. Les interactions créées par ces IA semblent favoriser des liens émotionnels qui pourraient s’avérer problématiques à long terme. Suleyman prévient qu’il est crucial de concevoir des IA pour servir les gens, et non pas pour simuler une expérience humaine.
Un appel à l’action
Il préconise de discuter des mesures de protection à mettre en place pour garantir que cette technologie incroyable puisse réellement bénéficier à l’humanité. Suleyman a changé de ton depuis son rôle de fondateur chez Inflection AI, où il avait mis sur le marché Pi, un chatbot d’accompagnement, et considère maintenant que l’industrie technologique doit agir rapidement pour clarifier le statut de l’IA.
Il suggère que les entreprises d’IA ne devraient pas affirmer que leurs systèmes sont conscients. Pour lui, établir une définition consensuelle de ce qu’est l’IA est une étape essentielle. En effet, l’IA ne peut ni être considérée comme des personnes, ni comme des êtres moraux.
Vers une nouvelle approche
Suleyman a la possibilité de montrer l’exemple en abandonnant le terme « intelligence artificielle », qui, selon lui, a une connotation marketing qui renvoie à des fantasmes futuristes. Cela pourrait permettre de réorienter le discours autour de ces technologies, souvent perçues comme innocentes mais qui génèrent des profits considérables pour les entrepreneurs.
FAQ
Quelles sont les conséquences de l’illusion de la conscience des IA ?
La croyance que les IA pourraient être conscientes pourrait conduire à des demandes pour des droits pour ces entités, modifiant ainsi notre interaction avec la technologie et possiblement nos lois.
Comment les jeunes perçoivent-ils l’IA ?
Des études récentes montrent qu’un quart des jeunes pensent que les IA sont déjà conscientes, ce qui soulève des risques environnementaux, comportementaux et éthiques.
Quelles sont les recommandations de Suleyman pour l’industrie de l’IA ?
Suleyman appelle les entreprises à éviter de faire croire que leurs IA sont conscientes et à créer un consensus sur leur définition et leur rôle. Cela permettrait d’établir une structure éthique plus solide.
Pourquoi abandonner le terme « intelligence artificielle » ?
Ce terme suscite des attentes démesurées et renforce la croyance que ces systèmes possèdent une conscience ou des émotions, ce qui peut induire en erreur des utilisateurs et influencer des décisions politiques.
Quelles mesures de protection devraient être mises en place ?
Il est crucial d’élaborer des règles et des garde-fous pour encadrer l’utilisation des IA, afin de protéger les utilisateurs tout en maximisant les bénéfices que cette technologie peut apporter à la société.
