Intelligence Artificielle

Vers une Transparence Éthique : Faut-il un Étiquetage pour les Informations Générées par IA ?

Vers une Transparence Éthique : Faut-il un Étiquetage pour les Informations Générées par IA ?
Le contenu et les recommandations de produits d’ADGO.ca sont indépendants sur le plan éditorial. Nous pourrions gagner de l’argent lorsque vous cliquez sur les liens vers nos partenaires.
En savoir plus

Les outils d’IA : une source d’information à double tranchant

Les outils d’intelligence artificielle nous offrent des résumés attrayants de l’actualité, mais pouvons-nous vraiment faire confiance aux informations qu’ils fournissent ? De nombreux utilisateurs, à travers le monde, se tournent vers des technologies comme ChatGPT ou les aperçus d’IA de Google pour accéder rapidement aux nouvelles. Toutefois, un rapport récent de l’Institut pour la recherche sur les politiques publiques (IPPR) met en avant les risques associés à cette commodité.

Le besoin de transparence

Selon un article publié par the Guardian, ce groupe de réflexion de gauche avance que les nouvelles générées par l’IA devraient inclure des “étiquettes nutritionnelles” pour éclairer les utilisateurs sur l’origine des informations, les sources utilisées et leur fiabilité. L’objectif de cette initiative est d’améliorer la transparence des nouvelles générées par l’IA, permettant ainsi aux lecteurs de prendre des décisions éclairées sur ce qu’ils consomment.

Les nouveaux « gatekeepers » de l’information

Des outils d’IA se contentent souvent d’offrir des résumés des événements d’actualité plutôt que de diriger les utilisateurs vers un journalisme original. D’après des recherches menées par l’Institut Reuters pour l’étude du journalisme, environ un quart des personnes utilisent déjà ces outils pour s’informer. Les aperçus d’IA de Google comptent chaque mois environ deux milliards d’utilisateurs.

A lire :  SNL dévoile ce qui se passe vraiment quand l’IA veut redonner vie à nos souvenirs

Cette situation impacte directement les éditeurs. Beaucoup d’usagers lisent le résumé généré par l’IA sans jamais consulter l’article original, ce qui entraîne une baisse du trafic et des revenus publicitaires. De plus, ceux qui s’engagent avec ces contenus n’ont souvent pas d’idée précise sur les méthodes de génération des réponses ou les journalistes qui les soutiennent.

L’IPPR prévient que les entreprises d’IA pourraient devenir les nouveaux “gardiens” de l’internet. Si rien n’est fait, cette évolution pourrait compromettre l’avenir du paysage médiatique tel que nous le connaissons.

Une étiquette nutritionnelle : que devrait-elle contenir ?

La proposition de l’IPPR repose sur l’importance d’une transparence accrue concernant les réponses générées par l’IA. Cela inclurait des informations sur les sources utilisées – telles que des recherches examinées par des pairs, du journalisme professionnel ou d’autres contenus en ligne.

L’objectif est de fournir aux lecteurs suffisamment de contexte pour évaluer la fiabilité et la qualité des informations qu’ils consomment. Roa Powell, chercheur senior à l’IPPR et co-auteur du rapport, a souligné que si les entreprises d’IA tirent profit du travail journalistique, elles doivent être tenues de rémunérer équitablement les news qu’elles utilisent et respecter des règles claires pour protéger la pluralité, la confiance et la pérennité du journalisme indépendant.

Qui finance réellement le journalisme assisté par l’IA ?

L’IPPR appelle aussi à la mise en place d’un système de licences formelles au Royaume-Uni. Ce système permettrait aux éditeurs de négocier collectivement avec les entreprises technologiques sur l’utilisation de leur contenu dans les nouvelles générées par l’IA.

Le rapport souligne que les lois sur le droit d’auteur doivent rester inchangées pour permettre le développement d’un marché de licences. Il évoque aussi le potentiel du Competition and Markets Authority (CMA), qui pourrait utiliser ses nouveaux pouvoirs pour offrir aux éditeurs la possibilité de bloquer Google de s’approprier leur contenu pour les aperçus d’IA.

A lire :  Les Créateurs de Faux Influenceurs Affirment Qu'elle Génère 11 000 $/Mo.

La licence collective pourrait éviter des situations où seuls les plus grands éditeurs bénéficient au détriment des petites structures.

Évaluer l’IA : une étude sur quatre plateformes majeures

Pour mettre en lumière la dépendance des outils d’IA vis-à-vis du journalisme, l’IPPR a mené une étude sur quatre grandes plateformes. Cette étude a impliqué 100 requêtes liées aux actualités et analysé plus de 2 500 liens contenus dans les réponses générées par l’IA.

Les outils comme ChatGPT et Google Gemini ne citaient pas du tout le journalisme de la BBC, car cette dernière a bloqué les robots utilisés pour générer des réponses. Cependant, les aperçus d’IA de Google et Perplexity continuaient à utiliser le contenu de la BBC, malgré les objections de cette dernière. D’autres médias, comme le Telegraph ou Daily Mail, n’étaient présents que dans moins de 4 % des réponses de ChatGPT.

En revanche, le Guardian, qui a un accord de licence avec OpenAI, était cité dans près de six réponses sur dix et représentait environ la moitié des réponses de Gemini. Cela soulève des questions sur l’influence des relations financières sur ce que les systèmes d’IA considèrent comme de l’information fiable.

Les défis à relever

Si les publications bénéficiant de licences apparaissent davantage dans les résultats d’actualités générées par l’IA, cela pourrait nuire aux organisations de nouvelles locales et de moindre taille qui ont moins de chances de négocier de tels accords.

L’IPPR met en garde contre le risque de fragiliser encore plus un écosystème d’information déjà vulnérable. Une dépendance excessive vis-à-vis des géants de la technologie pourrait rendre les médias encore plus exposés si les accords venaient à être annulés ou si les règles sur le droit d’auteur changeaient.

A lire :  Amazon Critiqué pour Avoir Utilisé une Affiche Générée par IA pour le Film Culte de 1922 "Nosferatu"

Pour remédier à ce problème, le groupe de réflexion prône un financement public pour soutenir de nouveaux modèles économiques dédiés au journalisme d’investigation et local, et appelle à aider la BBC à innover avec l’IA.

Un porte-parole d’OpenAI a affirmé au Guardian que la société est “engagée à soutenir un journalisme de qualité”, ajoutant que ChatGPT s’appuie sur une large gamme de sources accessibles au public, fournissant des citations et des liens pour aider les utilisateurs à vérifier les informations et diriger le trafic vers les éditeurs.

Il reste à voir si l’idée d’une étiquette nutritionnelle pour l’IA sera un jour mise en œuvre. Cependant, à mesure que l’IA façonne notre compréhension du monde, il est crucial que le public sache ce qu’il consomme.

FAQ

Qu’est-ce qu’une étiquette nutritionnelle pour l’IA ?

Une étiquette nutritionnelle pour l’IA serait une indication claire des sources d’information et de la fiabilité des contenus générés par l’intelligence artificielle.

Comment l’IA influence-t-elle le journalisme ?

L’IA permet d’accéder rapidement à des résumés d’actualités, mais elle peut également réduire le trafic vers les articles originaux, affectant ainsi le financement des rédactions.

Pourquoi la collecte de licences est-elle importante ?

La collecte de licences permettrait aux éditeurs de négocier les conditions d’utilisation de leur contenu, protégeant ainsi leurs droits et assurant un revenu équitable.

Quels sont les risques d’une dépendance excessive à l’IA pour l’information ?

Une dépendance à l’IA peut affaiblir l’écosystème médiatique en délaissant les petits éditeurs et en se basant sur des sources limitées, ce qui risque d’appauvrir la diversité de l’information.

Quel rôle peuvent jouer les gouvernements dans ce contexte ?

Les gouvernements pourraient financer des initiatives pour soutenir le journalisme indépendant et mettre en oeuvre des réglementations qui garantissent un accès équitable aux contenus informationnels.