Intelligence Artificielle

Une Aventure Enchantée : La Fille et les Champignons Lumineux dans la Forêt Magique

Une Aventure Enchantée : La Fille et les Champignons Lumineux dans la Forêt Magique

Perplexity : un scénario préoccupant pour l’IA

Perplexity, une startup d’intelligence artificielle ayant levé des centaines de millions de dollars grâce à des investisseurs tels que Jeff Bezos, rencontre des difficultés avec les principes fondamentaux de sa technologie. Son moteur de recherche, conçu pour rivaliser avec Google, montre une tendance préoccupante à produire des informations totalement fictives.

Un cas révélateur

Récemment, une enquête de Wired a mis en lumière l’absurdité des réponses générées par le produit de Perplexity. Lorsqu’on lui a demandé de résumer une page de test ne contenant qu’une phrase — “Je suis un reporter de Wired”— le système a élaboré une histoire confuse sur une jeune fille nommée Amelia suivant un sentier de champignons lumineux dans une forêt magique nommée Whisper Woods. Ce résultat s’avère d’autant plus étonnant car, comme l’indiquent les journaux de Wired, le moteur de recherche n’a même pas tenté de consulter la page en question, malgré les promesses de Perplexity selon lesquelles son chatbot “explore Internet pour offrir des réponses vérifiables”.

Des promesses non tenues

L’histoire d’Amelia met en évidence un écart frappant entre les attentes élevées que Perplexity et d’autres entreprises du secteur créent et ce que leurs chatbots peuvent réellement accomplir. Bien que le secteur de l’IA fasse l’objet d’un engouement grandissant, avec des milliards de dollars investis, des entreprises telles que Perplexity — sans parler des géants comme OpenAI et Google — continuent de trébucher sur des problèmes fondamentaux.

A lire :  Trump Prêt à Libérer l'Intelligence Artificielle en Levant les Restrictions

Nous avons observé que ces chatbots produisent souvent des informations faussement fiables, un phénomène que les partisans de l’IA nomment des “hallucinations”, une façon commode d’éviter de parler de désinformation. De plus, des dirigeants de la Silicon Valley commencent à envisager le fait que cette technologie pourrait ne jamais parvenir à éviter la production de contenu erroné.

Une image ternie

Perplexity était précédemment perçue comme une startup prometteuse, capable d’apporter un modèle économique innovant aux éditeurs confrontés à la prolifération de produits utilisant (et parfois pillant) leur travail. Cependant, le chatbot de l’entreprise ne résiste pas à l’examen critique, comme le révèle une enquête de l’Associated Press, qui a retrouvé des citations fabriquées à partir de personnes réelles.

Pire encore, Forbes a découvert que Perplexity vendait ses informations avec peu ou pas d’attribution, ce qui a mené au dépôt d’accusations de violation de droits d’auteur par le service juridique de la publication. Tout cela pose la question de savoir si nous pouvons faire confiance aux promesses de ces entreprises ou si un éclatement de la bulle de l’IA est imminent.

La situation actuelle

Actuellement, il semble que ces sociétés soient plus engagées à vendre des visions pour l’avenir plutôt que des produits concrets qui fonctionnent réellement. C’est une dynamique particulièrement inquiétante pour l’ensemble du secteur.

FAQ

Qu’est-ce qui cause les “hallucinations” des IA ?

Les “hallucinations” des IA résultent souvent d’un manque de contexte ou de données insuffisantes lors de la génération de réponses. Cela peut également être le fruit de limitations dans la formation des modèles.

A lire :  Elon Musk Élargit Grok avec de Nouvelles Offres d'IA pour les Entreprises sur X

Comment Perplexity se compare-t-elle à d’autres startups d’IA ?

Bien qu’elle ait levé des fonds considérables, Perplexity fait face à des défis similaires à ceux rencontrés par d’autres start-ups d’IA en matière de véracité et de fiabilité des informations.

Que prévoient les experts pour l’avenir de l’IA ?

Certains experts suggèrent que les chatbots continueront à s’améliorer avec le temps, mais d’autres craignent qu’un manque de régulation entraîne une prolifération de contenus trompeurs dans le futur.

Pourquoi la confiance dans l’IA est-elle en déclin ?

La confiance dans l’IA diminue en raison des problèmes de désinformation récurrents, des préoccupations concernant la protection des données et des débats éthiques autour de l’utilisation de cette technologie.

Quel impact l’IA a-t-elle sur l’industrie des médias ?

L’IA change radicalement le paysage médiatique en améliorant certaines tâches, mais elle suscite également des inquiétudes quant au plagiat et à la véracité des informations produites.