Intelligence Artificielle

Des manifestants envahissent les locaux d’OpenAI

Des manifestants envahissent les locaux d'OpenAI

Rassemblement des Activistes Contre OpenAI

Récemment, une trentaine d’activistes se sont réunis devant le bureau d’OpenAI à San Francisco pour exprimer leur désaccord avec l’entreprise, après que celle-ci a annoncé sa collaboration avec le militaire américain. Cette protestation, comme rapporté par Bloomberg, appelait à un boycott des technologies d’IA.

Changement de Politique d’OpenAI

Le mois dernier, OpenAI, dirigé par Sam Altman, a discrètement levé une interdiction concernant l’utilisation de sa technologie dans des applications militaires. Ce changement de politique a été remarqué pour la première fois par The Intercept. Quelques jours après, la société a confirmé qu’elle collaborait avec le Département de la Défense des États-Unis pour développer un logiciel de cybersécurité open-source.

Les Préoccupations des Organisateurs de la Manifestation

Holly Elmore, l’une des organisatrices de la manifestation, a souligné que le problème dépassait le simple fait d’une coopération douteuse avec le secteur militaire. Selon elle, même lorsque des limites semblent être établies, OpenAI peut les modifier à sa guise. Malgré cela, OpenAI affirme que sa technologie ne sera pas utilisée pour créer des armes ou nuire aux personnes.

A lire :  La crise s’aggrave chez Nexperia : la filiale néerlandaise appelle la Chine à la rescousse

La Position d’OpenAI sur la Collaboration Militaire

Lors d’un événement à Davos, le vice-président des affaires globales d’OpenAI, Anna Makanju, a défendu cette coopération en arguant qu’elle était alignée avec les valeurs de l’entreprise. Un représentant de la société a ajouté qu’OpenAI travaille également avec DARPA pour développer des outils de cybersécurité essentiels à l’infrastructure.

Réactions et Inquiétudes des Experts en IA

Cette volte-face discrète dans la politique d’OpenAI a suscité des préoccupations parmi les organisateurs de la manifestation. Elmore dirige une organisation de bénévoles appelée PauseAI, qui milite pour interdire le développement de systèmes d’IA généralistes, en raison de leurs dangers potentiels pour l’existence même de l’humanité. D’autres leaders du secteur de l’IA partagent également ces préoccupations, indiquant que la majorité des citoyens craint que l’IA puisse, par accident, provoquer un événement catastrophique.

La Vision d’Altman pour l’Avenir de l’IA

Sam Altman, quant à lui, considère qu’il est préférable de développer proactivement l’IA de manière sécurisée et responsable, plutôt que de s’opposer à son développement. Au cours d’un sommet mondial à Dubaï, il a déclaré qu’il n’était pas préoccupé par les “robots tueurs”, mais davantage par les perspectives de désalignement sociétal qui pourraient émerger lorsque ces systèmes sont intégrés dans notre quotidien. Pour lui, la vraie question est de savoir si l’on choisit de s’engager activement pour sécuriser notre avenir collectif, ou de se contenter de critiquer et de prédire des échecs.

FAQ

Qu’est-ce que PauseAI ?

PauseAI est un groupe de bénévoles qui demande l’interdiction de la création de systèmes d’IA généralistes jugés potentiellement dangereux pour l’humanité. Ils s’inquiètent des risques existentiels que ces technologies pourraient entraîner.

A lire :  AWS investit 50 Md$ pour accélérer l’IA et le supercalcul au service du gouvernement américain

Comment OpenAI justifie-t-elle son partenariat avec le militaire ?

OpenAI affirme que sa collaboration avec le militaire américain vise à développer des outils de cybersécurité qui sont cruciaux pour protéger les logiciels open-source utilisés par des infrastructures essentielles et l’industrie.

Quels sont les avis des experts sur l’IA ?

De nombreux experts en intelligence artificielle expriment des inquiétudes croissantes quant aux implications de l’IA, notamment le risque qu’elle puisse causer, par inadvertance, des catastrophes majeures.

Quelle est la réponse d’OpenAI face aux préoccupations soulevées ?

OpenAI a réitéré que, bien qu’elle ait assoupli certaines de ses règles, elle maintient une interdiction stricte sur l’utilisation de son IA pour construire des armes ou nuire aux individus.

Pourquoi Altman oppose-t-il la réaction négative à l’IA ?

Altman croit fermement qu’il est crucial d’adopter une approche proactive dans le développement de l’IA pour éviter des problèmes futurs, plutôt que de simplement appeler à un arrêt de son avancement.