Établir des Limites
OpenAI a récemment informé l’entreprise de lobbying FiscalNote à Washington, D.C., qu’elle ne pouvait pas utiliser ChatGPT à des fins politiques. Cela a été rapporté par le site d’actualités Semafor.
Suite à l’annonce où FiscalNote affirmait qu’elle allait intégrer ChatGPT dans sa plateforme pour “révolutionner l’industrie du lobbying et de la défense”, OpenAI a réagi rapidement. Dans un communiqué de presse, FiscalNote avait déclaré qu’elle offrait une puissance d’IA de nouvelle génération pour susciter l’engagement politique, ce qui a alarmé OpenAI.
Il semble qu’après cela, le terme “engagement politique” ait été remplacé par “campagnes de plaidoyer de base”, ce qui montre la volonté d’OpenAI de se distancier des applications politiques potentielles de sa technologie.
Cet événement crée un précédent pour OpenAI et, possiblement, pour l’ensemble du secteur de l’IA. D’après Semafor, c’est la première fois qu’OpenAI exerce une telle surveillance sur la façon dont ses technologies sont présentées publiquement par d’autres.
S’Impliquer en Politique
Aujourd’hui, l’utilisation de l’IA dans le domaine politique soulève des questions cruciales. Par exemple, le Comité national républicain (RNC) a déjà commencé à utiliser des technologies d’IA générative dans ses publicités politiques. Cela représente un défi important à l’approche des prochaines élections présidentielles.
Il est à noter qu’OpenAI a clairement stipulé dans ses politiques d’utilisation, mises à jour en mars dernier, que ses produits ne peuvent pas être utilisés pour des campagnes électorales ou du lobbying.
OpenAI a également mentionné à Semafor qu’elle travaille sur un classificateur d’apprentissage automatique capable de détecter l’utilisation de ChatGPT pour générer des contenus liés aux campagnes électorales ou au lobbying.
À mesure que des outils comme ChatGPT se répandent dans la société moderne, des entreprises comme OpenAI devront faire face à une attention croissante sur l’utilisation de leur technologie.
L’expérience passée sur la modération des réseaux sociaux nous montre que surveiller l’utilisation et la promotion de ces produits ne fera qu’être de plus en plus complexe.
En savoir plus sur ChatGPT : Professeur accuse à tort ses étudiants de tricherie car ChatGPT lui a dit de le faire.
FAQ
1. Qu’est-ce que ChatGPT ?
ChatGPT est un modèle de traitement du langage naturel développé par OpenAI qui peut générer du texte, répondre à des questions et engager des conversations.
2. Quel est l’impact de l’utilisation de l’IA en politique ?
L’utilisation de l’IA en politique peut influencer l’opinion publique, automatiser la création de contenu et optimiser des campagnes, mais elle soulève des problèmes éthiques et de désinformation.
3. Quelles sont les restrictions d’OpenAI concernant l’utilisation de ses produits ?
OpenAI interdit explicitement l’utilisation de ses technologies pour des fins de campagne électorale ou de lobbying.
4. Comment OpenAI surveille-t-elle l’utilisation de ses technologies ?
OpenAI développe des outils d’apprentissage automatique pour détecter l’utilisation abusive de ses produits, notamment dans le cadre de campagnes politiques.
5. Pourquoi la vigilance sur l’utilisation de l’IA est-elle de plus en plus nécessaire ?
Avec l’augmentation de l’utilisation des technologies d’IA, des exigences de transparence et de responsabilité croissantes sont demandées pour éviter les abus et les ramifications éthiques.
