Une analyse préoccupante de la recherche ChatGPT par le Tow Center
Une étude réalisée par le Tow Center for Digital Journalism de l’université de Columbia a mis en lumière les problèmes rencontrés par la fonction de recherche de ChatGPT d’OpenAI, un outil conçu pour reformuler les requêtes web et fournir des liens vers des sources fiables. Les résultats indiquent que cet outil déforme souvent les informations des médias, y compris celles de ses “partenaires d’actualités” avec lesquels OpenAI a des accords de licence.
Résultats des recherches sur les attributions
Le rapport du Columbia Journalism Review révèle que le Tow Center a examiné deux cents citations issues de vingt publications et a demandé à ChatGPT de en identifier les sources. Les résultats étaient mitigés : certaines attributions étaient correctes, tandis que d’autres étaient complètement erronées ou un mélange des deux. Dans de nombreux cas où ChatGPT ne pouvait pas localiser la source d’une citation, en raison des restrictions imposées par le fichier robots.txt, l’outil a souvent créé de fausses sources plutôt que d’admettre son incapacité à trouver l’information.
Les implications des restrictions des robots
Certaines publications, comme le New York Times, qui a intenté un procès contre OpenAI et Microsoft pour violations de droits d’auteur, empêchent les robots d’OpenAI d’accéder à leur contenu. D’autres médias qui coopèrent avec OpenAI permettent à ses robots de parcourir leur site en échange de paiements pour l’utilisation de leur contenu journalistique. Cependant, même ces partenaires ne sont pas exempts d’erreurs, ChatGPT indiquant souvent des attributions incorrectes pour leurs articles.
Une image ternie pour OpenAI
Cette situation pose un gros problème pour ChatGPT, présenté par OpenAI comme un outil fournissant des « réponses rapides et pertinentes avec des liens vers des sources web ». Pourtant, les données montrent que le service présente une forte imprécision, lançant un doute sur son efficacité pour les journalistes et les consommateurs de nouvelles.
Réactions des professionnels du secteur
Mathias Sanchez, un dirigeant d’Axel Springer, un partenaire d’OpenAI, a commenté sur les potentielles avancées que la collaboration avec OpenAI pourrait amener dans le paysage médiatique. Il a noté que cette initiative vise à développer des modèles économiques nouveaux garantissant une journalism fiable et rentable. Cependant, le rapport met en garde que même les articles provenant d’Axel Springer sont souvent mal cités par ChatGPT.
La question de la fiabilité de l’IA
Selon le rapport, il a également été constaté que ChatGPT peut parfois retourner des contenus plagiés lorsque certaines publications bloquent l’accès de ses robots. Par exemple, des reprises erronées d’articles du NYT ont été observées. De plus, l’analyse révèle que la capacité de ChatGPT à fournir des attributions correctes est très variable, la même requête donnant parfois des informations totalement différentes à chaque fois.
Réponse d’OpenAI
Un porte-parole d’OpenAI a critiqué les méthodes de tests du Tow Center, affirmant qu’ils restent engagés à soutenir les éditeurs et les créateurs en facilitant la découverte de contenu de qualité. Ils annoncent également travailler à améliorer la précision des citations et le respect des préférences des éditeurs.
Enjeux pour l’industrie des médias
L’industrie des médias dépend fortement des revenus publicitaires basés sur le nombre de clics. Les conclusions du Tow Center sont préoccupantes pour les entreprises, car si ChatGPT continue de produire des erreurs, une question se pose : les accords de licence et les abonnements suffiront-ils à compenser la baisse du trafic ? Cela soulève également des inquiétudes sur l’impact de ces erreurs générées par l’IA sur le paysage complexe des informations, souvent déjà mal perçues par le public.
Conclusion
Il est encore trop tôt pour juger de l’ampleur de ces enjeux, mais une chose est sûre : si vous utilisez ChatGPT pour vos recherches, il est conseillé de vérifier scrupuleusement les informations fournies.
FAQ
Qu’est-ce que le Tow Center for Digital Journalism ?
Le Tow Center est une institution académique de l’Université de Columbia qui se concentre sur l’analyse et la recherche dans le domaine du journalisme numérique.
Comment fonctionne la fonction de recherche de ChatGPT ?
La fonction de recherche de ChatGPT utilise des robots web pour collecter des informations sur internet, qu’elle reformule ensuite afin de répondre aux requêtes des utilisateurs.
Pourquoi certaines publications bloquent-elles les robots d’OpenAI ?
Des publications comme le New York Times bloquent les robots d’OpenAI pour protéger leur contenu et éviter des violations de droits d’auteur.
Que se passe-t-il si ChatGPT ne trouve pas une citation correcte ?
Lorsque ChatGPT ne parvient pas à localiser la citation correcte, il a été observé qu’il crée parfois de fausses attributions au lieu d’informer l’utilisateur de son incapacité à fournir la bonne information.
Quelle est l’importance de l’attribution correcte dans le journalisme ?
Une attribution correcte est essentielle dans le journalisme pour assurer la crédibilité des sources, éviter le plagiat et respecter les droits d’auteur des auteurs originaux.
