La découverte troublante de Lapine
Une artiste utilisant l’intelligence artificielle qui se fait appeler Lapine a fait une révélation choquante. Elle a constaté que des photographies médicales privées datant d’il y a près de dix ans étaient intégrées dans un ensemble d’images servant à former des intelligences artificielles, nommé LAION-5B.
Pour arriver à cette découverte, Lapine a employé un site appelé Have I Been Trained, qui permet aux artistes de vérifier si leurs œuvres ont été utilisées sans leur consentement. En effectuant une recherche inversée de son image, elle a eu la surprise de retrouver deux de ses photos médicales privées.
Lapine raconte : « En 2013, un médecin a photographié mon visage pour compléter ma documentation clinique. Ce médecin est décédé en 2018 et, d’une manière ou d’une autre, son image a été publiée en ligne, pour finalement finir dans cet ensemble d’images — une image pour laquelle j’avais donné mon consentement à mon médecin, et non pour un ensemble de données. »
La chaîne de responsabilité
L’ensemble d’images LAION-5B est censé ne contenir que des images disponibles publiquement sur Internet. En théorie, cela devrait exclure les photos médicales privées, mais il s’avère que ce n’est pas le cas.
Ces images ont été prélevées dans les fichiers du médecin de Lapine et se sont retrouvées en ligne, puis dans le répertoire de LAION. Un suivi effectué par Ars Technica révèle qu’il existe encore de nombreuses images “potentiellement sensibles” de patients dans les hôpitaux, susceptibles d’être utilisées par l’IA.
LAION a obtenu ces images grâce à une technique appelée web scraping, où des bots explorent l’Internet à la recherche de contenus, sans qu’on puisse prévoir ce qu’ils vont trouver.
Un ingénieur de LAION a indiqué sur le Discord public de l’organisation que la base de données ne stocke pas réellement les images. Pour faire retirer une image, il est donc conseillé de demander à l’hébergeur de ne plus la publier. Cependant, comme le souligne Lapine, cette démarche implique souvent de fournir des informations personnelles.
Finalement, il pourrait être difficile de déterminer où se situe la responsabilité. Est-ce que l’hôpital ou le médecin ont négligé la sécurité de ces photos, ou faut-il blâmer les techniques intrusives des scrapers comme LAION? Ce pourrait être une fausse dichotomie, car ces deux éléments ne sont pas mutuellement exclusifs.
Dans tous les cas, il est déjà préoccupant que les AIs utilisent les œuvres des artistes sans leur accord. Mais permettre la consultation de photos médicales privées par l’IA ? Cela devrait susciter de vives inquiétudes. Si même ces données ne sont pas protégées, qu’est-ce qui l’est vraiment ?
FAQ
Qu’est-ce que LAION-5B ?
LAION-5B est un ensemble d’images utilisé pour entraîner des intelligences artificielles, censé inclure uniquement des images disponibles publiquement sur Internet.
Pourquoi le web scraping est-il problématique ?
Le web scraping permet aux bots de recueillir des données sur Internet, ce qui peut inclure des informations sensibles ou privées sans consentement.
Comment puis-je vérifier si mes œuvres ont été utilisées par une IA ?
Vous pouvez utiliser des outils comme Have I Been Trained pour déterminer si vos images ou créations ont été intégrées dans des ensembles de données d’intelligence artificielle.
Quel est le rôle des artistes dans cette problématique ?
Les artistes doivent être conscients de la manière dont leur travail peut être utilisé par des systèmes d’IA et peuvent envisager des droits d’auteur pour protéger leurs œuvres.
Que peuvent faire les artistes pour se défendre ?
Ils peuvent exiger des clarifications sur l’utilisation de leurs œuvres et réclamer le retrait de celles utilisées sans consentement, tout en restant vigilants sur les lois entourant les droits d’auteur.
