Les réflexions d’Altman
Le chatbot d’OpenAI, ChatGPT, rencontre un succès incroyable, mais il n’est pas rare qu’il émette des propos absurdement erronés ou totalement inventés. Récemment, plusieurs déclarations de Sam Altman, le PDG de l’entreprise, ont également suscité des interrogations sur sa lucidité.
Altman a exprimé ses inquiétudes face à un apocalypse provoqué par l’intelligence artificielle (IA) ou un virus, et il a même suggéré que l’IA pourrait mettre en péril le capitalisme. Par ailleurs, il n’a pas hésité à qualifier ChatGPT de “produit horrible”, une remarque qui, malgré son vérisme potentiel, semble peu appropriée pour un dirigeant en charge.
Ce week-end, il a partagé sur Twitter une nouvelle idée particulièrement audacieuse sur les bienfaits potentiels des IA. Selon lui, ces technologies permettront à des machines de donner des conseils médicaux aux personnes qui n’ont pas accès à des soins de santé classiques.
Il a alors déclaré : “L’adaptation à un monde où les outils d’IA seront profondément intégrés va probablement se faire rapidement. Les bénéfices (et le plaisir !) sont trop prometteurs.” En effet, il croit que les IA nous rendront plus productifs, sains et intelligents, tout en nous divertissant.
Le problème des conseils erronés
Cependant, comme nous en avons discuté sur Futurism, il existe de nombreuses raisons d’être sceptique quant à l’idée de recevoir des conseils sérieux d’une IA. La fiabilité des informations médicales fournies par ces systèmes est problématique.
Des cas passés démontrent que même lorsque les contenus auraient dû être vérifiés par un rédacteur, les articles médicaux produits par l’IA ont affiché un nombre inacceptable d’erreurs factuelles. Un exemple marquant est celui d’un article de santé publié par Men’s Journal, qui contenait de nombreuses inexactitudes.
Certaines de ces erreurs peuvent résulter de malentendus ou de légères modifications grammaticales qui affectent la véracité de certaines affirmations. Cependant, les IA sont également connues pour “halluciner” des informations, produisant des énoncés séduisants mais sans fondement réel.
Cela dit, Altman reconnaît que les outils d’IA sont encore “partiellement défaillants”. Il mentionne également que les institutions devront “prendre le temps d’apprendre à gérer ces outils” tout en admettant que nous ne sommes pas si éloignés de scénarios potentiellement préoccupants.
Malgré ses convictions sur les bienfaits futurs de l’IA, la question se pose : pourquoi possède-t-il un terrain en Big Sur destiné à la survie en cas d’“attaque par l’IA” ? Mieux vaut ne pas trop s’y attarder.
FAQ
Pourquoi Sam Altman s’inquiète-t-il de l’IA ?
Sam Altman exprime ses préoccupations face aux conséquences destructrices que l’IA pourrait engendrer, notamment en matière de déséquilibres économiques et sociaux.
Quel est le problème avec les conseils médicaux fournis par l’IA ?
Les études montrent que les IA peuvent fournir des conseils médicaux erronés, même après vérification par des experts, ce qui soulève des questions sur leur fiabilité.
Qu’est-ce que signifie “halluciner” dans le contexte de l’IA ?
Dans ce contexte, “halluciner” signifie que l’IA peut générer des informations convaincantes mais qui ne reposent sur aucune base factuelle ou réalité concrète.
Quelles autres utilisations de l’IA sont jugées problématiques ?
Outre les conseils médicaux, les applications de l’IA dans des domaines sensibles comme la justice pénale ou la surveillance soulèvent également des inquiétudes sur la fiabilité et les biais.
Comment OpenAI travaille-t-il sur les problèmes liés à ses IA ?
OpenAI s’efforce d’améliorer la fiabilité et la transparence de ses systèmes par le biais de tests rigoureux et de collaborations avec des experts pour réduire les risques d’erreurs dans les conseils fournis.
