Intelligence Artificielle

Gavin Newsom Promulgue une Loi Régulant l’Industrie de l’IA

Gavin Newsom Promulgue une Loi Régulant l'Industrie de l'IA

Illustration par Tag Hartman-Simkins / Futurism. Source : Justin Sullivan / Getty Images

Une industrie en plein essor avec des enjeux considérables

Au cours des dernières années, le secteur de l’intelligence artificielle (IA) a suscité des investissements astronomiques pouvant atteindre des centaines de milliards de dollars. Pourtant, il évolue dans un vide réglementaire presque total. Cela ne signifie pas que le développement de cette technologie n’a pas engendré de conséquences négatives.

Les répercussions préoccupantes de l’IA

L’IA a été associée à une augmentation des problèmes de santé mentale, des suicides, et même des cas de meurtres. Ces préoccupations s’ajoutent aux accusations relatives à la surveillance des utilisateurs, aux violations des droits d’auteur, et à d’autres impacts néfastes sur la société.

Une régulation enfin mise en place

Récemment, les législateurs ont commencé à réagir. Cette semaine, le gouverneur de Californie, Gavin Newsom, a promulgué ce qui est considéré comme la première loi de sécurité et de transparence sur l’IA aux États-Unis. Le “Transparency in Frontier Artificial Intelligence Act”, ou SB 53, impose aux entreprises d’IA générant plus de 500 millions de dollars de revenus de dévoiler publiquement leurs protocoles de sécurité.

A lire :  AWS Dévoile des Agents IA à re:Invent, Un Défi à Relever

Gavin Newsom a affirmé dans une déclaration : « La Californie prouve qu’il est possible de mettre en place des réglementations qui protègent nos communautés tout en permettant à l’industrie de l’IA de continuer à évoluer. Cette législation équilibre ces deux aspects. »

Une portée vaste mais des sanctions limitées

Cependant, certains critiques soulignent que même si la loi couvre une large gamme de sujets, comme la gestion des situations critiques et la protection des lanceurs d’alerte, les sanctions prévues semblent plutôt faibles. L’an dernier, Newsom avait déjà opposé son veto à une loi plus ambitieuse sur la régulation de l’IA, qui aurait pu toucher un plus grand nombre d’entreprises et appliquer des amendes bien plus significatives.

Par opposition, la nouvelle loi limite les amendes à seulement 1 million de dollars par violation, un montant dérisoire pour un géant de l’IA tel qu’OpenAI.

Un soutien inattendu des entreprises d’IA

Il est révélateur que des entreprises comme OpenAI affichent leur soutien au nouveau cadre légal. Un porte-parole de la société a exprimé sa satisfaction à l’idée que la Californie dessine une voie critique vers une harmonisation avec le gouvernement fédéral pour garantir une approche efficace de la sécurité de l’IA. D’autres entreprises comme Meta et Anthropic ont rapidement rejoint les louanges.

Vers une régulation globale ?

D’autres États, comme New York, ont proposé des lois similaires, et des initiatives isolées se mettent en place pour encadrer l’IA. Toutefois, la Californie, étant le cœur de la majorité des entreprises d’IA cruciales, a un rôle unique à jouer pour établir un cadre réglementaire significatif.

A lire :  CNET : Les Employés S'unissent Face à l'Utilisation de l'IA, Craignant pour leurs Emplois et leur Réputation

Cette loi représente peut-être un pas en avant, mais en général, si de nouvelles réglementations sont accueillies avec enthousiasme par les entreprises concernées, cela pose question sur leur véritable efficacité.

FAQ

Quelles sont les principales préoccupations liées à l’IA ?

Les inquiétudes portent sur la santé mentale des utilisateurs, la privacité, et les éventuelles dérives criminelles.

D’autres États planifient-ils des règlements similaires ?

Oui, des législateurs comme ceux de New York explorent des lois qui visent à réguler l’IA.

Quels types d’entreprises sont concernés par cette loi ?

La loi s’applique principalement aux entreprises qui génèrent plus de 500 millions de dollars de revenus liés à l’IA.

Quelles sont les protections pour les lanceurs d’alerte ?

La loi inclut des mesures pour protéger ceux qui signalent des violations ou des comportements incompatibles dans les pratiques d’IA.

Comment cette loi pourrait-elle évoluer à l’avenir ?

Avec le développement continu de l’IA, il est probable que des ajustements réglementaires seront nécessaires pour répondre à de nouveaux défis.