Intelligence Artificielle

Guy Lancer un Site D’Actualités Entièrement Généré par IA

Guy Lancer un Site D'Actualités Entièrement Généré par IA

Le premier site d’actualités entièrement généré par l’IA est enfin là. Nommé NewsGPT, il suscite de sérieuses inquiétudes.

Ce site, comme le mentionne un communiqué de presse, se veut une alternative sans journaliste — donc, prétendument, sans biais — aux médias traditionnels, dans le but de “[offrir] des informations objectives et basées sur des faits à un public mondial.”

Alan Levy, le directeur général de NewsGPT, déclare dans le communiqué : “Trop souvent, les chaînes d’information sont entachées de biais et de reportages subjectifs. Avec NewsGPT, nous souhaitons fournir aux spectateurs des faits et des vérités, sans agendas cachés ni préjugés.”

D’accord, mais bien que nous comprenions la frustration de nombreux lecteurs face à l’actualité moderne, il existe de nombreuses préoccupations quant à l’approche de Levy. Il y a, en effet, des **problèmes de transparence** flagrant, ce qui est assez ironique au regard de ce qu’il prétend dénoncer.

Tout d’abord, bien que son nom laisse entendre qu’il utilise une version de l’Assistant d’OpenAI, le **GPT**, un modèle de langage ayant fait ses preuves, Levy ne révèle jamais quel programme d’IA alimente réellement NewsGPT. Le communiqué se contente de dire que **l’IA est basée sur des algorithmes d’apprentissage automatique de pointe et des technologies de traitement du langage naturel** qui seraient, selon ses dires, capables de balayer des sources d’actualités en temps réel.

“Les données ainsi récoltées sont ensuite utilisées pour créer des articles et des reportages précis, à jour et impartiaux”, ajoute-t-il.

C’est bien, mais encore une fois : **quel type d’IA est utilisé ?** Cela a son importance ! Les logiciels d’IA ne surgissent pas de nulle part. Chaque modèle est conçu et programmé par des humains, et il semble crucial pour la mission de Levy de préciser qui est derrière la technologie qu’il utilise.

Lorsque le site **Futurism** a contacté NewsGPT, son représentant a simplement répondu qu’ils recourent à une “combinaison de programmes d’IA”, sans réellement répondre à la question initiale. De plus, ils ont mentionné que “une partie de cet e-mail est rédigée par de l’IA”, sans préciser quelle portion.

Concernant la technologie sous-jacente, notre préoccupation n’est pas seulement **qui la développe**. Des outils de génération de texte comme ChatGPT sont souvent critiqués pour leur capacité à **inventer** des informations — ils ne comprennent pas réellement les mots, mais prédisent ce qui pourrait suivre dans une phrase, allant jusqu’à créer de faux chiffres et sources pour soutenir des affirmations erronées.

De leur côté, NewsGPT a reconnu que des hallucinations par l’IA peuvent survenir, mais minimisent la portée de ce problème, puisque ce ne sont que des “informations basées sur des faits”, n’est-ce pas ?

“Nous n’avons pas de vérificateurs humains. Nos articles sont générés à 100 % par l’IA. Nous savons que les ‘hallucinations d’IA’ peuvent se produire et que cette technologie n’est pas parfaite,” ont-ils précisé dans un courriel. “Nous sommes engagés à apprendre rapidement et à nous améliorer continuellement pour offrir les meilleures nouvelles générées par l’IA.”

Cependant, dans le domaine de l’information, il est essentiel de mentionner les **sources**. Hormis quelques mentions sporadiques dans le texte, les articles de NewsGPT ne renvoient généralement pas aux références de leurs déclarations. Présenter des faits sans indiquer leur origine soulève des doutes, à moins que ces informations ne soient purement inventées.

Cela semble problématique. Mais pour NewsGPT, ce n’est qu’une étape de croissance.

NewsGPT et l’IA sont en phase de forte croissance,” a déclaré l’entreprise. “Nous développons en ce moment un ‘système de bonnes pratiques’ concernant les sources et les liens.”

Cela dit, nous nous interrogeons : si la technologie se limite à collecter, reformuler et reproduire les nouvelles d’autres **sources d’informations** sans donner de crédit, n’est-ce pas tout simplement du **plagiat** ? Ce serait ironique venant de journalistes humains sur lesquels Levy prétend qu’on ne peut pas compter — ceux qui écrivent pour des entreprises que Levy accuse d’avoir des “agendas cachés et des biais.”

“En utilisant le processus de modélisation générative, NewsGPT crée de nouvelles histoires originales,” affirment-ils, ajoutant que leur modèle d’IA non spécifié recherche également des textes trop proches de contenus existants et tente d’y remédier.

C’est bien, mais nous voulons le **vérifier**. Étant donné que même les dirigeants en IA d’OpenAI, Microsoft et Google n’ont pas encore résolu ces enjeux, nous n’allons pas nous réjouir trop tôt.

Il est également important de noter que, bien que le **biais humain** soit un problème, le biais machine en est un autre. Levy commercialise NewsGPT comme un reporter apolitique et dépersonnalisé, capable de n’apporter que des faits. Pourtant, les LLM et des outils similaires sont un reflet de l’humanité, souvent de ses pires aspects, et non l’antidote que des individus comme Levy veulent faire croire ; l’industrie de l’IA n’a pas encore mis au point un système exempt de **biais profondément ancrés**.

Finalement, en ce qui concerne l’actualité et le journalisme, les programmes d’IA générative pourraient, à l’avenir, présenter des qualités d’assistance utiles. Mais aujourd’hui, nous n’avons toujours pas vu de système miracle capable de fournir des informations précises et impartiales sans intervention humaine — et même avec des humains impliqués, ces programmes échouent régulièrement à cause de leurs faiblesses ainsi que des nôtres.

Quoi qu’il en soit, évitez de vous informer sur NewsGPT.

Plus d’informations sur le journalisme par IA : CNET licencie des employés après une transition difficile vers le journalisme IA.

FAQ

Qu’est-ce que NewsGPT ?

NewsGPT est un site d’actualités prétendument généré par l’intelligence artificielle, sans intervention humaine, se présentant comme une alternative objective aux médias traditionnels.

Comment NewsGPT crée-t-il ses articles ?

Le site utilise une combinaison d’algorithmes d’apprentissage automatique et de traitement du langage naturel pour générer des articles basés sur des données collectées en temps réel.

Y a-t-il des agents de fact-checking pour assurer l’exactitude des articles ?

Non, NewsGPT n’emploie pas de vérificateurs humains. Tous les articles sont entièrement créés par l’IA, qui reconnaît que des “hallucinations” peuvent se produire.

Pourquoi est-il important de connaître les sources d’information ?

Les sources sont cruciales pour la véracité des informations. Des articles sans lien vers leurs références peuvent contenir des faits inventés ou déformés.

L’IA peut-elle remplacer complètement les journalistes humains ?

Actuellement, les systèmes d’IA présentent des limitations et des biais qui rendent difficile leur capacité à offrir un journalisme exact et impartial sans intervention humaine.

Quitter la version mobile