## Autogestion
Eric Schmidt n’est plus à la tête de Google, mais il reste très impliqué dans le monde de la technologie.
Lors d’une interview sur NBC, il a exprimé ses pensées sur les règlements autour de l’intelligence artificielle (IA). Schmidt, à la fois enjoué et sérieux, a partagé ses doutes quant à la nécessité de “garde-fous” pour cette technologie, en raison de son potentiel à induire en erreur et à devenir imprévisible.
“Lorsque cette technologie sera largement accessible, les problèmes deviendront bien plus graves”, a déclaré Schmidt à Jacob Ward de MTP. “Il est préférable que les entreprises actuelles définissent des limites raisonnables.”
Cela donne l’impression que le gouvernement devrait prendre les rênes, n’est-ce pas ? Eh bien, non ! Au contraire, Schmidt pense que ce sont les entreprises d’IA qui devraient gérer la réglementation, arguant qu’« une personne ne provenant pas de l’industrie ne peut pas saisir ce qui est possible ».
“Il n’y a personne au gouvernement capable de bien faire cela”, a-t-il ajouté.
## Désintérêt Historique
Cet aspect semble être au cœur des préoccupations de Schmidt.
En 2021, lui qui a dirigé Google d’abord en tant que PDG puis en tant que président, a coécrit un livre avec l’ancien secrétaire d’État Henry Kissinger. Ce texte soulignait les dangers potentiels d’une IA non régulée. Pourtant, aujourd’hui, Schmidt semble penser que les créateurs d’IA devraient être les seuls responsables de sa réglementation, malgré un évident conflit d’intérêts.
Lors d’une récente audition devant le comité de surveillance de la Chambre, il a également tourné en dérision les tentatives européennes de réguler l’IA.
“L’UE a une loi qui exige que le système puisse s’expliquer lorsqu’il est utilisé dans des domaines critiques”, a-t-il mentionné lors d’une audience début mai. “Ces systèmes, par définition, ne peuvent pas s’expliquer eux-mêmes — tout comme votre adolescent, si vous en avez un.”
En avril, il est même allé jusqu’à dire que si, comme certains experts le proposaient, les États-Unis mettaient en place une “pause” de six mois sur la technologie IA pour l’étudier et en limiter les dangers, cela pourrait permettre à la Chine de prendre l’avantage.
“Je ne soutiens pas une pause de six mois, car cela ne ferait que profiter à la Chine”, a affirmé Schmidt dans un entretien avec le Australian Financial Review. “Je préfère rassembler tout le monde dès que possible pour discuter des garde-fous appropriés.”
Il semble que par “tout le monde”, il se réfère surtout aux acteurs du secteur — et compte tenu de l’enthousiasme manifesté par certains PDG d’IA à propos de l’intelligence générale artificielle, on peut deviner leurs positions en matière de réglementation.
Pour en savoir plus sur la stratégie de Google en matière d’IA : Mémorandum fuité de Google révèle la peur de perdre la course à l’IA, mais pas face à l’ennemi que l’on pourrait croire.
### FAQ
#### Qu’est-ce qu’un “garde-fou” en matière d’IA ?
Un garde-fou désigne des règlements ou des mesures qui visent à encadrer et à sécuriser le développement et l’utilisation des technologies d’IA pour prévenir les abus ou les dérives.
#### Pourquoi Eric Schmidt est-il contre la réglementation gouvernementale ?
Schmidt estime que les experts de l’industrie ont une meilleure compréhension des technologies et de leurs implications, par opposition aux décideurs politiques qui ne sont pas familiers avec ces domaines.
#### Quels sont les dangers potentiels d’une IA non régulée ?
Une IA sans régulation peut entraîner des problèmes tels que des décisions biaisées, la désinformation et des comportements imprévisibles. Cela pourrait avoir des conséquences graves dans des domaines critiques comme la santé ou la sécurité.
#### Quel est le rôle de l’Europe dans la régulation de l’IA ?
L’Europe a commencé à proposer des lois pour renforcer la régulation de l’IA, cherchant à assurer la transparence et la responsabilité des systèmes d’IA dans des domaines importants.
#### Comment les entreprises peuvent-elles collaborer pour établir des règlements ?
Les entreprises pourraient organiser des tables rondes et des conférences pour discuter des meilleures pratiques et établir des standards de sécurité qui garantissent une utilisation éthique de l’IA.
