L’administration Trump est en quête de remplacer Claude, le chatbot actuellement intégré dans l’ensemble du Pentagone, par le système d’intelligence artificielle de l’entrepreneur Elon Musk, Grok.
En théorie, le modèle d’intelligence artificielle Grok d’xAI semble pertinent : il est déjà utilisé dans certaines sections du Département de la Défense, tout en étant également présent dans d’autres instances du gouvernement fédéral. Étant donné qu’Elon Musk a passé une bonne partie de son temps à charcuter les murs de cette administration, il devrait être bien informé des rouages de celle-ci.
Cependant, Grok présente également des faiblesses significatives. Son efficacité est inférieure à celle de nombreux autres modèles d’IA lors de tests aux standards de l’IA, et il est devenu célèbre pour ses réactions erratiques et inappropriées.
Les professionnels du secteur, qui sont en contact direct avec l’administration, ne considèrent clairement pas Grok comme la meilleure option. Des sources ont déclaré au Wall Street Journal qu’ils étaient préoccupés par la sécurité et l’efficacité de ce système.
D’après le WSJ, de nombreux responsables ont averti que Grok est plus vulnérable au phénomène de “corruption des données” par rapport à d’autres systèmes d’IA. Ce problème pourrait entraîner la déformation des données fondamentales, ce qui pose de graves risques en matière de cybersécurité, surtout pour une institution comme le Pentagone.
Des intervenants, dont l’identité a été préservée, ont souligné que ces préoccupations atteignaient même des responsables de haut rang, tel Ed Forst, à la tête de l’Administration des services généraux, qui supervise les acquisitions fédérales. Selon les rapports, la GSA juge Grok à la fois trop flatteur et trop sensible à la manipulation.
En résumé, tant qu’Anthropic n’a pas retiré deux éléments éthiques essentiels, les responsables militaires préféraient l’option Claude à celle de Musk, Grok.
Gregory Allen, un conseiller senior en intelligence artificielle du Centre d’études stratégiques et internationales, a exprimé au WSJ : “Je ne pense pas qu’ils soient équivalents en termes de performances pour ce qui est requis par un client comme le Département de la Défense.”
Pour compliquer la circulation des idées au sein de l’administration Trump, Sam Altman — le PDG d’OpenAI, un concurrent direct d’Anthropic — a indiqué cette semaine que son entreprise maintiendrait également une “ligne rouge” éthique similaire.
Ainsi, à moins que l’administration Trump ne parvienne à convaincre Google ou Microsoft de franchir la barrière éthique que maintiennent Anthropic et OpenAI, le Pentagone est contraint d’utiliser Grok, avec toutes les conséquences que cela implique.
Informations supplémentaires sur Musk : Un homme parie toutes ses économies de 342 195,63 $ sur l’échec d’Elon Musk.
## FAQ
#### Quelle est la principale préoccupation concernant Grok ?
La vulnérabilité de Grok à la “corruption des données” suscite des inquiétudes sur sa sécurité et son efficacité.
#### Pourquoi Claude est-il préféré à Grok par certains responsables militaires ?
Claude est considéré comme plus fiable et moins susceptible d’être manipulé par des données externes.
#### Quel impact pourrait avoir la décision d’Anthropic sur le choix du système d’IA par le Pentagone ?
Si Anthropic maintient ses lignes éthiques, cela pourrait forcer le Pentagone à continuer d’utiliser Grok malgré ses défauts.
#### Comment Grok se compare-t-il à d’autres systèmes d’intelligence artificielle ?
Sur plusieurs tests, Grok obtient des résultats inférieurs à ceux des modèles concurrents, ce qui alimente les critiques.
#### Quelles mesures de cybersécurité sont nécessaires pour des systèmes comme Grok ?
Il est essentiel d’instaurer des protocoles stricts pour protéger les données et éviter toute manipulation des modèles d’IA.
