Intelligence Artificielle

ChatGPT : Une Chute de 295% Après l’Accord d’OpenAI avec le Pentagone

ChatGPT : Une Chute de 295% Après l'Accord d'OpenAI avec le Pentagone
Le contenu et les recommandations de produits d’ADGO.ca sont totalement indépendants sur le plan rédactionnel. Nous pouvons générer des revenus lorsque vous cliquez sur des liens vers nos partenaires.
En savoir plus

Un contrat avec le Pentagone a coûté à OpenAI des millions de ses utilisateurs fidèles en un week-end.

Une forte hausse des désinstallations de ChatGPT

Le produit phare d’OpenAI, ChatGPT, a enregistré une augmentation spectaculaire des désinstallations parmi les utilisateurs américains, atteignant une hausse de 295 % en un jour le 28 février. Cette réaction a suivi une vague de mécontentement public suite à l’annonce d’un partenariat militaire entre OpenAI et le Département de la Défense des États-Unis, un accord qu’un concurrent, Anthropic, avait auparavant refusé pour des raisons éthiques.

Un partenariat qui vire au cauchemar médiatique

Tout commence en juillet 2025 lorsque Anthropic signe un contrat de 200 millions de dollars pour intégrer son IA Claude dans les réseaux militaires classifiés. Toutefois, en janvier 2026, la société exprime des préoccupations concernant l’utilisation de l’IA dans des missions létales, comme la capture du président vénézuélien Nicolás Maduro.

Le 13 février, des informations ont fuité indiquant que le Pentagone était mécontent de la position d’Anthropic, l’accusant de vouloir “veto” certaines opérations militaires au nom de sa propre éthique. Peu après, le secrétaire à la Défense, Pete Hegseth, a fixé un ultimatum pour que la société accepte des conditions d’utilisation jugées “légales”, sans quoi elle encourrait des sanctions.

Deux jours plus tard, le directeur général d’Anthropic, Dario Amodei, a refusé ces conditions. En conséquence, le président Trump et le Pentagone ont pris la décision de bannir Anthropic, la désignant comme un risque pour la chaîne d’approvisionnement, ce qui a interdit à tout organisme gouvernemental de traiter avec eux.

Dans un article publié sur leur site, Anthropic a Clarifié que le bannissement était basé sur leur refus de se conformer à des demandes cruciales, principalement lutilisation de ChatGPT pour des systèmes d’armes autonomes et la surveillance de la population américaine.

Juste après cela, OpenAI a accepté les termes que Anthropic avait refusés.

Réactions des utilisateurs

À peine quelques heures après l’annonce, la nouvelle a provoqué une vague de mécontentement sur Internet, les utilisateurs se sentant trahis. Des discussions sur Reddit ont été lancées pour exhorter les utilisateurs à “Annuler et supprimer” l’application.

Une gestion maladroite selon Sam Altman

Le PDG d’OpenAI, Sam Altman, s’est exprimé sur X, reconnaissant que la manière dont le déploiement s’est effectué était problématique. Il a précisé qu’ils n’auraient pas dû se précipiter pour rendre cela public. Sam Altman a également indiqué son intention de renégocier le contrat avec le gouvernement, ajoutant que les systèmes d’IA ne seraient pas utilisés pour surveiller les citoyens américains.

De plus, il a critiqué la décision du gouvernement américain d’exclure Anthropic des collaborations avec les agences officielles, qualifiant cela de “très mauvaise décision”.

Des chiffres préoccupants pour OpenAI

Des données de l’analyste de marché Sensor Tower ont révélé que, au-delà de la hausse de 295 % des désinstallations, les téléchargements américains de l’application ChatGPT avaient chuté de 13 % le samedi, puis encore de 5 % le dimanche.

Les avis des utilisateurs reflètent également ce désaccord : les évaluations d’une étoile ont monté en flèche, atteignant 775 % le samedi, puis 100 % supplémentaires le dimanche. Pendant ce temps, les avis à cinq étoiles ont chuté de plus de 50 %.

Cette situation contraste fortement avec l’an dernier, où l’application était en tête des téléchargements sur l’Apple App Store.

Un week-end fructueux pour Claude

En revanche, Anthropic a connu un week-end parmi les plus prospères depuis longtemps. L’application mobile Claude a observé une augmentation de 37 % des téléchargements aux États-Unis le 27 février, suivie d’un bond de 51 % le samedi. À la fin du week-end, l’application Claude a grimpé de plus de 20 places pour atteindre la première position sur l’App Store américain, contre la deuxième place la semaine précédente.

Ce que cet événement signifie vraiment pour l’IA

Cet incident met en lumière une réalité souvent ignorée dans l’industrie de l’IA : les utilisateurs sont attentifs aux aspects éthiques des produits qu’ils utilisent, et pas seulement à leurs fonctionnalités innovantes. Cela démontre également l’importance des positions des géants de l’IA sur les questions de sécurité nationale.

FAQ

Quelles sont les implications éthiques de l’utilisation de l’IA par les gouvernements ?

L’utilisation de l’IA pour des missions militaires soulève des questions éthiques importantes concernant la responsabilité, la transparence et le respect des droits humains.

Pourquoi Anthropic a-t-il refusé le contrat avec le Pentagone ?

Anthropic a refusé des conditions qu’ils considéraient comme contraires à leurs valeurs éthiques, notamment l’emploi de leur technologie pour des opérations létales.

Quel impact cela aura-t-il sur la concurrence dans le secteur de l’IA ?

Cet incident pourrait renforcer la concurrence, incitant d’autres entreprises à adopter des pratiques éthiques similaires pour attirer les consommateurs soucieux de ces enjeux.

Comment ces événements influencent-ils les perceptions des utilisateurs ?

Les utilisateurs deviennent de plus en plus conscients et exigeants quant aux implications éthiques des technologies qu’ils utilisent, ce qui pourrait influencer leurs choix futurs.

Que pourrait faire OpenAI pour regagner la confiance des utilisateurs ?

OpenAI pourrait commencer par renforcer la transparence de ses pratiques, clarifier ses politiques d’utilisation de l’IA, et s’engager dans un dialogue ouvert avec sa communauté.

Quitter la version mobile