Intelligence Artificielle

La Chine impose l’étiquetage obligatoire pour tout contenu généré par intelligence artificielle.

La Chine impose l'étiquetage obligatoire pour tout contenu généré par intelligence artificielle.

Réglementation sur le contenu généré par l’IA en Chine

En collaboration avec plusieurs ministères gouvernementaux, l’organisme de régulation de l’internet en Chine, la Cyberspace Administration of China (CAC), a décidé que tout contenu généré par intelligence artificielle devra être clairement étiqueté. Cette mesure vise à lutter contre le flot de contenu de mauvaise qualité qui envahit l’internet.

Contexte de la réglementation

Le rapport de Bloomberg indique que cette nouvelle réglementation exigera que tout contenu synthétique soit identifié, que ce soit directement dans sa description ou par le biais des métadonnées. Les gouvernements cherchent à conserver une certaine forme de contrôle face à l’essor de contenus problématiques, notamment ceux pouvant véhiculer de la désinformation ou des mensonges nuisibles.

Initiatives passées et divergences politiques

L’ancien président américain, Joe Biden, avait essayé de faire face à cette problématique en signant un décret en 2023, mais celui-ci a été annulé par son successeur, Donald Trump. Au lieu de restreindre l’utilisation de l’IA générative, l’administration actuelle a plutôt ouvert les vannes, incitant même les agences fédérales à abandonner les directives sur l’IA.

En revanche, des régions comme la Chine et l’Union Européenne ont instauré des règles strictes concernant l’étiquetage du contenu généré par l’IA. L’année dernière, l’Union Européenne a adopté le AI Act, considérée comme le premier cadre légal au monde sur l’intelligence artificielle, visant à gérer les risques associés à ces technologies et à positionner l’Europe en tant qu’acteur central sur le plan international.

Les nouvelles règles en Chine

Dans le sillage de l’UE, la Chine a annoncé des consignes destinées aux fournisseurs de services internet pour qu’ils étiquètent le contenu généré par l’IA. La CAC a souligné que cette loi permettra aux utilisateurs de mieux reconnaître les faux et d’obliger les fournisseurs à étiqueter leur contenu. L’objectif est de réduire l’abus de ce type de contenu.

Mise en œuvre et declaration des utilisateurs

Les opérateurs de magasins d’applications devront mettre en place des mécanismes d’étiquetage afin de respecter ces nouvelles normes. De plus, les utilisateurs eux-mêmes sont désormais tenus de signaler lorsqu’ils publient un contenu généré par l’IA. Le South China Morning Post mentionne que des sanctions pourraient frapper ceux qui modifient les étiquettes des contenus après publication.

Défis de l’étiquetage

Cependant, avec l’augmentation de la complexité des contenus générés par IA, il reste à voir à quel point ces réglementations d’étiquetage seront efficaces et réellement applicables. Les tentatives antérieures d’aborder cette question n’ont pas été couronnées de succès. Par exemple, Meta avait essayé d’introduire un label “Made with AI” sur ses plateformes, mais les utilisateurs avaient rapidement remarqué que même des photos réelles étaient étiquetées comme générées par IA, rendant l’initiative peu convaincante.

L’impact d’une mauvaise qualité de contenu

Par ailleurs, la quantité de contenu de mauvaise qualité généré par l’IA sur internet continue de croître et nuit gravement à l’expérience des utilisateurs. Récemment, Futurism a rapporté que la plateforme Pinterest avait été submergée par ces contenus peu fiables, déconcertant ainsi ses utilisateurs. Une recherche simple pour “idées de recettes saines” a révélé que la majorité des résultats présentaient des caractéristiques typiques de génération par IA, et seul un contenu portait une étiquette claire l’indiquant comme tel.

FAQ

Qu’est-ce que la CAC ?

La Cyberspace Administration of China (CAC) est l’agence chargée de surveiller et de réguler l’internet en Chine.

Pourquoi l’étiquetage de l’IA est-il nécessaire ?

L’étiquetage aide à distinguer le contenu authentique du contenu généré par des algorithmes, facilitant ainsi la détection de la désinformation.

Quels sont les risques associés à un contenu généré par IA ?

Les risques incluent la propagation de la désinformation, l’escroquerie, et d’autres dangers potentiels pour les utilisateurs qui pourraient être trompés par ce contenu.

Les utilisateurs peuvent-ils être pénalisés ?

Oui, ceux qui ne respectent pas les nouvelles règles d’étiquetage risquent des sanctions.

Comment d’autres pays abordent-ils le problème de l’IA ?

Des régions comme l’Union Européenne ont mis en place des réglementations spécifiques pour encadrer le développement et l’utilisation de l’IA, en visant une transparence accrue des contenus essentiellement générés par des machines.

Quitter la version mobile