Alors que Google s’apprête à lancer sa propre fonction de recherche intégrant un chatbot — une initiative majeure pour rivaliser avec le Bing de Microsoft, qui utilise ChatGPT — le géant de la recherche a discrètement publié des avertissements pour les éditeurs souhaitant utiliser du contenu généré par l’IA.
En particulier, Google met en garde les médias que le **contenu généré par l’IA**, surtout celui traitant de l’**information sanitaire, civique ou financière**, fera l’objet d’une attention accrue de la part de son équipe de recherche. Autrement dit, ce sont des domaines où il est essentiel d’être **précis**.
« Ces problématiques se retrouvent tant dans les contenus générés par des humains que par l’IA », précise la nouvelle FAQ de Google, en évoquant spécifiquement « **le contenu IA pouvant propager des informations erronées ou contredire le consensus sur des enjeux importants.** »
Google continue en affirmant que, quel que soit le moyen de production, ses systèmes s’efforcent de mettre en avant des **informations de haute qualité** provenant de **sources fiables**, tout en évitant celles qui vont à l’encontre de consensus bien établis sur des sujets cruciaux.
À la décharge de Google, cet avertissement est légitime.
Excluant son implication dans la course à l’IA, il est important de noter que Google reste le moteur de recherche le plus utilisé. Les grandes entreprises médiatiques utilisent déjà des IA génératives pour produire du contenu, tandis que certains groupes encouragent leurs membres à utiliser des outils gratuits pour créer des **moulins à contenu personnels**. En tant que principal acteur de notre vie numérique, Google doit s’adapter à des **technologies émergentes** qui transforment la création de contenu en ligne — l’IA générative, malgré ses inévitables failles, influence déjà cette dynamique.
Cela dit, Google a un **intérêt** personnel dans cette affaire, car cela **l’affecte directement**. On peut penser qu’il est sous pression pour ne pas se laisser distancer par le marché de l’IA dominé par Microsoft et OpenAI. Étant donné que son propre moteur de recherche avec chatbot a déjà montré des erreurs notables — comme dans une **publicité**, c’est assez alarmant. Par conséquent, il est prudent de s’attaquer aux nombreux problèmes qui pourraient surgir dans un environnement numérique saturé de contenu AI peu coûteux, rapide et souvent **incorrect**.
Il n’est donc pas surprenant que Google se concentre sur les **secteurs** de la santé et de la finance, en raison de leur grande importance et du constat que les outils d’IA générative commettent fréquemment des erreurs dans ces domaines. Les **modèles linguistiques** performants (LLMs) sont particulièrement inadaptés avec les chiffres, comme en témoigne l’**avis financier** généré par IA de **CNET**, bourré d’erreurs. Par ailleurs, il a été constaté que ChatGPT a pu **fabriquer** des diagnostics médicaux et des traitements, en fournissant même des **sources fictives** pour justifier ses affirmations.
Concernant le contenu politique, plusieurs experts ont signalé que la disponibilité de ChatGPT pourrait transformer notre monde en ligne en un véritable **enfer de propagande**. Voilà qui est réjouissant !
En fin de compte, Google assure que nous ne devrions pas nous inquiéter outre mesure. Après tout, ils ont l’habitude de cela.
« Notre priorité est la **qualité du contenu**, plutôt que sa méthode de création. Cela nous a permis de fournir des résultats fiables et de qualité aux utilisateurs pendant des années », explique la nouvelle FAQ.
C’est noté, mais il est compréhensible que nous puissions avoir des réticences, notamment parce que Google ne fait pas **signaler** spécifiquement aux créateurs de contenu que leur matériel provient de l’IA.
« Les **divulgations sur l’IA ou l’automatisation** sont utiles lorsque l’on peut se demander : ‘Comment cela a-t-il été créé ?’ Pensez à les ajouter lorsque cela semble raisonnable. »
À découvrir sur Google IA : La démonstration de l’IA à venir de Google révèle une grosse erreur factuelle.
FAQ
Qu’est-ce que Google dit concernant le contenu généré par l’IA ?
Google avertit que le contenu généré par l’IA, en particulier dans les domaines sensibles comme la santé et la finance, sera scruté de manière accrue pour éviter la désinformation.
Pourquoi Google se préoccupe-t-il de la santé et de la finance ?
Ces domaines sont critiques et des erreurs dans l’information peuvent avoir de graves conséquences. Google souhaite s’assurer que les utilisateurs reçoivent des informations précises et fiables.
Comment puis-je m’assurer que mon contenu est considéré comme fiable par Google ?
Il est recommandé d’utiliser des sources vérifiées et de respecter les standards de qualité recommandés par Google, ainsi que d’indiquer clairement si le contenu est généré par une IA.
Quelles sont les implications de l’utilisation des IA génératives pour les éditeurs ?
Les éditeurs doivent être conscients des risques de désinformation que ces outils peuvent engendrer et doivent adapter leurs pratiques pour garantir la fiabilité de leur contenu.
Comment Google gère-t-il la propagation de fausses informations ?
Google utilise des systèmes avancés pour prioriser des contenus provenant de sources fiables, tout en réduisant la visibilité de ceux qui contiennent des erreurs ou de la désinformation.
