Les recommandations de contenu et de produits sur ADGO.ca sont éditorialement indépendantes. Nous pouvons générer des revenus lorsque vous cliquez sur des liens vers nos partenaires.
Un nouvel outil controversé de Grammarly
Grammarly a récemment lancé une fonctionnalité d’intelligence artificielle qui suscite des questions éthiques. Son outil “Expert Review” propose des retours sur l’écriture, mais en utilisant les voix de véritables auteurs, journalistes et académiciens sans leur consentement. Parmi eux, certains n’ont jamais été consultés, et au moins un des contributeurs est récemment décédé.
Le problème avec Expert Review
Cet aspect positionne le débat sur cet outil bien au-delà d’une simple question liée à un produit d’intelligence artificielle. En effet, Grammarly ne se contente pas de résumer des écrits déjà accessibles au public. Au lieu de cela, la plateforme intègre des suggestions directement associées à de réelles personnalités, transformant des noms connus en fonctionnalités de leur produit, sans obtenir d’autorisation claire de ceux-ci.
Fonctionnement de l’outil Expert Review
Grammarly présente sa fonction “Expert Review” comme un moyen d’aider les utilisateurs à peaufiner leurs projets grâce à des retours éclairés. Ils affirment que cet outil puise dans des contenus d’experts disponibles au public et qu’il est capable d’identifier des spécialistes pertinents à partir du texte de l’utilisateur, afin de fournir des suggestions de corrections qui se fondent sur leurs perspectives.
Bien que cette proposition semble simple, le problème réside dans la manière dont ces “experts” sont perçus. Leurs interventions donnent souvent l’impression d’être des retours directs d’une personne réelle, plutôt qu’un simple résumé générique.
Un cas concret : David Abulafia
Un exemple frappant a mis en lumière ce problème : l’historien David Abulafia. Selon des rapports antérieurs de Wired relayés par The Verge, il faisait partie de la liste des experts cités par Grammarly. Malheureusement, l’Université de Cambridge a rapporté que le professeur Abulafia est décédé le 24 janvier 2026. Sa mention dans ce contexte est particulièrement problématique, alors que l’outil repose sur des retours d’experts générés par intelligence artificielle.
La réaction de Grammarly
Dans une déclaration adressée à The Verge, Alex Gay, vice-président de l’entreprise Superhuman, qui possède Grammarly, a précisé que la fonction ne prétend pas valider ou impliquer directement ces experts. Il a mentionné que leur apparence découle de leurs œuvres publiées, qui sont largement accessibles.
Bien que cette justification éclaire la position de Grammarly, elle ne résout pas la question du consentement, qui est centrale dans ce débat. La société ne se limite pas à utiliser des écrits publics, elle transforme aussi des individus réels en personnages de produit, y compris ceux qui ne peuvent plus s’y opposer.
Une question de consentement dans l’ère de l’IA
Le débat autour du consentement lié à l’identité générée par l’IA se fait sentir ailleurs, par exemple dans les réactions face à des vidéos truquées de personnalités, comme celle de Sydney Sweeney.
FAQ
Quelle est la fonction de l’outil Expert Review de Grammarly ?
L’outil fournit des commentaires de rédaction basés sur les perspectives d’experts, pour aider les utilisateurs à améliorer leur écriture.
Pourquoi certaines personnes critiquent-elles cet outil ?
La critique vient du fait que Grammarly utilise les identités de véritables experts sans leur avis, ce qui crée un problème d’éthique et de consentement.
Quelles sont les conséquences de l’absence de consentement dans ce contexte ?
L’absence de consentement peut entraîner une dévalorisation des contributions des experts réels et créer une confusion sur la provenance des recommandations.
Comment Grammarly justifie-t-il l’utilisation des noms d’experts ?
Grammarly soutient que les œuvres citées de ces experts sont déjà disponibles publiquement et largement reconnues, ce qui leur permet de les utiliser.
Existe-t-il d’autres cas similaires dans le domaine de l’IA ?
Oui, d’autres exemples ont été signalés où des entreprises utilisent les noms et les travaux d’individus sans permission, suscitant des débats éthiques dans le domaine de l’intelligence artificielle.
