Une nouvelle loi sur l’IA à New York
Le gouverneur Kathy Hochul a récemment fait de New York le deuxième état aux États-Unis à instaurer des régulations strictes sur la sécurité de l’intelligence artificielle. La loi, connue sous le nom de RAISE Act, a été adoptée après de longs mois de discussions, imposant des règles rigoureuses aux plus grandes entreprises d’IA opérant dans le pays.
Hochul a signé ce projet de loi peu après qu’un décret exécutif du président Trump cherche à interdire ce type de régulation aux niveaux des états. Sa décision audacieuse montre que les états ne reculent pas face à la pression fédérale pour encadrer l’IA.
Un cadre inspiré de la Californie
Hochul souligne que cette législation s’inspire du cadre récemment adopté en Californie, établissant ainsi un standard commun parmi les principaux états technologiques. Elle a déclaré que le gouvernement fédéral ne parvenait pas à mettre en place des régulations sensées pour protéger le public.
Le délai des 72 heures
Le texte de loi de New York vise les modèles d’intelligence artificielle qui utilisent une puissance de calcul excédant 10^26 opérations flottantes par seconde, ciblant ainsi les systèmes avancés d’entreprises comme OpenAI, Google et Meta. Les entreprises sont désormais tenues de publier leurs protocoles de tests de sécurité et de signaler rapidement les incidents critiques dans un délai de 72 heures.
Ce délai de 72 heures est plus strict que celui de 15 jours établi en Californie. De plus, les pénalités peuvent atteindre jusqu’à 1 million de dollars pour une première infraction, et jusqu’à 3 millions de dollars pour des infractions répétées.
Une nouvelle autorité de régulation a également été créée au sein du Department of Financial Services pour surveiller le développement de l’IA en permanence, particulièrement pour les applications à haut risque.
La résistance face à la pression fédérale
Le conflit entre l’État et le fédéral ne date pas d’hier. Le décret du 11 décembre de Trump vise à établir un cadre national unique et minimal pour l’IA, tout en s’opposant aux lois étatiques sur des bases constitutionnelles. Malgré ces menaces, Hochul a décidé d’aller de l’avant, indiquant que les états se préparent à une confrontation juridique majeure sur cette question.
Le décret menace même de détourner des financements fédéraux pour nuire aux états récalcitrants. Cependant, la décision audacieuse de New York montre que les états ne sont pas intimidés par la pression financière lorsqu’il s’agit de protéger leurs citoyens des dangers associés à l’IA.
Changements apportés au projet de loi initial
Derrière la scène, un âpre combat de lobbying a redessiné le texte final de la loi. Les premières propositions de Hochul auraient affaibli considérablement le projet en réduisant les amendes à seulement 1 million et en prolongeant les délais de signalement des incidents à 15 jours.
Les discussions ont révélé des campagnes de pression intenses, menées par des groupes industriels qui soutenaient financièrement Hochul. Le compromis final a conservé la règle de 72 heures tout en ajustant d’autres éléments.
La loi transforme les “protocoles” de sécurité en “cadres” qui décrivent des approches générales au lieu d’exigences spécifiques, offrant ainsi aux entreprises plus de flexibilité tout en maintenant des obligations de transparence.
Les lignes de bataille sont tracées
Le soutien à la loi est venu de syndicats et d’organisations de défense des droits civiques, qui la voient comme une protection contre le déplacement d’emplois et la discrimination. En revanche, certains développeurs s’inquiètent des charges administratives engendrées par ces nouvelles obligations de reporting.
Des défis juridiques semblent inévitables. Les experts prévoient que des entreprises technologiques pourraient contester cette loi en arguant qu’elle empiète sur le périmètre fédéral ou qu’elle viole des secrets commerciaux. Le défi de surveiller les systèmes d’IA 24 heures sur 24 et 7 jours sur 7 pour détecter les incidents dans le délai des 72 heures incombe désormais aux entreprises.
Le mécanisme d’exécution de la loi confère au Procureur général de l’État des pouvoirs de sanctions civiles, établissant ainsi une voie directe pour des actions réglementaires contre les entreprises non conformes. Cela place New York en position de force aux côtés de la Californie, façonnant un nouveau paysage réglementaire pour l’ensemble de l’industrie de l’IA en matière de sécurité et de transparence.
OpenAI s’est engagé à prioriser la sécurité des enfants avec le lancement de son dernier modèle d’IA, GPT-5.2.
FAQ
Quelles seront les conséquences pour les entreprises non conformes à cette loi?
Les entreprises qui ne respectent pas les obligations de la loi pourraient faire face à des amendes pouvant atteindre plusieurs millions de dollars.
Quels types d’IA sont concernés par cette loi?
La loi vise principalement les modèles d’IA qui utilisent une puissance de calcul extrêmement élevée, notamment ceux développés par des géants de la tech.
Quel impact cette loi pourrait-elle avoir sur l’innovation dans le secteur de l’IA?
Bien qu’elle impose des régulations strictes, certains experts estiment qu’elle pourrait également créer un environnement plus sûr et fiable, favorisant l’innovation dans des limites éthiques.
Quels groupes soutiennent cette initiative?
Syndicats, organisations de droits civiques et diverses associations de défense des consommateurs soutiennent cette loi, la considérant comme une avancée nécessaire pour la protection des citoyens.
Quels sont les objectifs à long terme de cette législation?
L’objectif est de garantir un développement responsable de l’IA, de protéger le public contre les risques et de créer un cadre de régulation qui puisse évoluer avec les avancées technologiques.
