Engager pour l’avenir : La promesse de Gannett sur l’IA
Dans un contexte où la technologie évolue rapidement, Gannett, le géant de l’édition et propriétaire de USA Today ainsi que de nombreux journaux locaux, avait promis au mois de juin de s’engager dans une utilisation responsable et sécurisée de l’intelligence artificielle (IA). Les dirigeants de l’entreprise affirmaient à l’époque qu’ils n’allaient pas céder à la pression de la rapidité, contrant ainsi d’autres médias qui avaient mal géré cette avancée technologique.
Promesses non tenues et dérives
Renn Turiano, vice-président senior et responsable des produits chez Gannett, a exprimé à Reuters que le souhait de « faire vite » avait conduit d’autres agences à des erreurs. Gannett, selon lui, s’évertuait à éviter ces écueils. Il affirmait aussi que l’automatisation viendrait surtout rationaliser les flux de travail des journalistes, permettant ainsi d’économiser du temps et d’éviter les tâches répétitives.
Cependant, des révélations récentes indiquent que Gannett a secretement commencé à publier des articles sportifs pour lycéens entièrement générés par une IA depuis plusieurs de ses journaux, y compris USA Today. Ces articles, conçus par Lede AI, étaient de bien piètre qualité, souvent maladroits et répétitifs, sans même mentionner des détails importants comme les noms de joueurs, et parfois, ils comportaient des erreurs de formatage.
L’absence de contrôle humain
Le plus alarmant est que l’introduction de ce contenu généré par IA a apparemment eu lieu sans intervention humaine, ce qui contredit les promesses de Gannett d’un processus supervisé. La tentative du groupe de corriger rétroactivement ces articles témoigne d’un manque de contrôle rigoureux au moment de la publication. Ce tournant est en contradiction flagrante avec la vision initiale d’un usage éthique et contrôlé de l’IA, telle qu’exposée dans leur politique éthique.
Un expert en communication et en sciences informatiques, Nicholas Diakopoulos, avait d’ores et déjà exprimé ses craintes à Reuters concernant ce genre de pratiques en juin dernier, affirmant qu’il ne recommanderait pas d’utiliser ces modèles pour des cas de journalisme où l’on publierait automatiquement sur des plateformes publiques.
Conclusions critiques
La situation actuelle de Gannett et de USA Today est déconcertante. Bien qu’ils aient clairement affirmé vouloir éviter les erreurs d’autres médias, leurs actions indiquent un besoin d’apprentissage urgent sur l’intégration de l’IA dans leurs processus. La leçon ici pourrait être de faire preuve de plus de prudence avant de s’engager dans des promesses qui ne peuvent pas être honorées.
FAQ
Qu’est-ce que l’IA générative ?
L’IA générative est une technologie qui utilise des algorithmes pour créer automatiquement du contenu, comme des articles ou des images, basés sur des données d’entrée.
Quels sont les risques de l’utilisation de l’IA dans le journalisme ?
Les risques incluent la diffusion d’informations inexactes, un manque de nuances dans les reportages, et un potentiel pour la désinformation, surtout si les contenus ne sont pas revus par des humains.
Gannett a-t-il des mesures en place pour encadrer l’utilisation de l’IA ?
Bien que Gannett ait annoncé des politiques éthiques sur l’IA, les récents événements soulèvent des questions sur leur application réelle et l’adhésion à ces principes.
Quelles alternatives à l’IA existent pour le journalisme ?
Les journalistes peuvent se concentrer sur le journalisme traditionnel en s’appuyant sur des recherches approfondies, des interviews et des vérifications de faits, tout en intégrant des outils technologiques de manière responsable.
Comment les autres médias peuvent-ils éviter les erreurs de Gannett ?
Les médias doivent établir des protocoles clairs pour l’utilisation de l’IA, s’assurer qu’il y a un contrôle humain constant, et rester transparents avec leur audience sur l’utilisation de technologies génératives.
