Saisir la Terre
Avec l’élaboration des nouvelles réglementations sur l’intelligence artificielle par l’Union Européenne, OpenAI se prépare à réagir.
Lors d’une récente conférence à University College London, le PDG de OpenAI, Sam Altman, a déclaré qu’il allait essayer de se conformer aux nouvelles normes, mais qu’il y avait plusieurs éléments qui l’intriguaient. Il a spécifiquement souligné ses préoccupations concernant la classification de certains outils d’intelligence artificielle, comme ChatGPT et GPT-4, en tant que systèmes à “haut risque”. Cette évaluation semble difficile à accepter pour lui, bien qu’il ait partagé des préoccupations sur la sécurité liée à un éventuel comportement hostile des intelligences artificielles.
Cette situation n’est pas sans précédent. Par le passé, d’autres pays comme l’Italie ont déjà imposé des interdictions sur des applications de type ChatGPT en raison de problèmes de protection des données et de bien-être des enfants. Cependant, l’évolution récente des lois dans l’UE pourrait marquer un tournant important dans la réglementation internationale de ces technologies.
Altman ne cache pas son mécontentement face à cette situation.
Maîtrise de l’IA
Si la législation avance dans sa forme actuelle, les entreprises d’IA seront soumises à des exigences supplémentaires que Sam Altman remet en question. Selon lui, il y a deux options : soit ils peuvent répondre à ces exigences, soit ils devront arrêter leur activité.
Il a également affirmé qu’ils essaieraient de s’adapter, bien qu’il y ait des limites techniques à ce qui est possible. Voilà un discours qui peut sembler un peu ambigu. Si Altman souhaitait vraiment collaborer, il aurait sûrement les moyens de répondre aux attentes de l’UE. En effet, les nouvelles règles exigeraient que les ensembles de données utilisés pour les modèles classés à haut risque soient de haute qualité, afin de minimiser les risques et les discriminations.
Lors de son discours à University College, Altman a également évoqué que, bien qu’il ne considère pas le projet de loi comme fondamentalement défectueux, certains détails subtils de la réglementation ont son importance.
Cela dit, il reste favorable à un encadrement de l’IA. Plus tôt cette semaine, OpenAI a émis une déclaration affirmant qu’il sera nécessaire de mettre en place un organe international de régulation lorsque les modèles d’IA évolueront vers une intelligence équivalente à celle des humains et au-delà.
FAQ
Quelles sont les préoccupations liées aux nouvelles réponses de l’UE sur l’IA ?
L’UE s’inquiète surtout de la protection des données et des impacts potentiels sur la société, notamment en ce qui concerne le bien-être des enfants.
Comment OpenAI envisage-t-il la réglementation future ?
Sam Altman a exprimé la nécessité d’un gouvernement international pour encadrer le développement de technologies d’IA qui atteignent des niveaux de connaissance humaine.
Quels risques sont associés à la classification des IA comme “haut risque” ?
Les réglementations pourraient imposer des conditions strictes qui visent à éviter des pratiques pouvant entraîner des biais discriminatoires ou des résultats imprévus.
OpenAI a-t-elle déjà été soumise à d’autres lois ?
Oui, des initiatives à l’échelle mondiale, comme celles de l’Italie, ont déjà conduit à l’interdiction d’applications d’IA en raison de préoccupations éthiques et légales.
Que fait OpenAI pour se préparer à ces changements réglementaires ?
OpenAI a entamé des dialogues avec les régulateurs de l’UE et ajuste ses stratégies pour répondre aux exigences tout en faisant valoir leurs points de vue critiques sur la législation.
