<p>
<figcaption class="article-featured-image-caption">
Déconstruction humaine. Cette image a été entièrement générée en 3D. <em>Image : Getty Images</em>
</figcaption>
</p>
Blabbermouth
Récemment, la Sage Group, qui se présente comme un leader dans le domaine de la comptabilité et de la technologie financière pour les entreprises, a suspendu temporairement son assistant IA Sage Copilot. Cette décision fait suite à un incident où le système a accidentellement divulgué des informations financières de clients. Selon un rapport de The Register, la situation a été révélée lorsqu’un client a demandé à l’assistant de lui montrer une liste de factures récentes et a reçu des données appartenant à d’autres clients, y compris les siennes.
Heureusement, le client a immédiatement signalé le problème. Un porte-parole de Sage a affirmé que l’assistant IA, encore en version d’accès anticipé, a été retiré pendant quelques heures afin de résoudre ce problème.
Pas de Grande Affaire
Cet incident pourrait naturellement être perçu comme une violation majeure de la confiance, tant envers l’organisation qu’envers les technologies expérimentales qu’elle utilise. Cependant, Sage ne considère pas cela comme un problème sérieux. Dans une déclaration faite à The Register, le porte-parole a qualifié l’incident de “problème mineur” qui aurait touché un “nombre très limité” de clients. Sage a nié que des informations sensibles aient été révélées, expliquant que les données affichées n’étaient pas liées aux factures et qu’aucun document confidentiel n’a été exposé.
Selon le porte-parole, l’incident n’a montré que des informations commerciales non liées à un petit groupe de clients. La solution a été entièrement mise en œuvre et le Sage Copilot fonctionne comme prévu.
Comportement du Modèle
Ce n’est pas la première fois qu’un modèle d’IA divulgue des informations inappropriées. La confidentialité des données demeure une préoccupation croissante alors que ces technologies sont intégrées dans des entreprises de toutes tailles. Ces incidents révèlent les difficultés de contrôle qui entourent les modèles d’IA, engendrés par les volumes massifs de données utilisées durant leur phase de formation, ainsi que celles absorbées dans les interactions avec les utilisateurs.
Les inquiétudes sont largement fondées. Il y a plus d’un an, des chercheurs de Google DeepMind ont démontré qu’une version antérieure de ChatGPT pouvait être manipulée pour divulguer des numéros de téléphone et des adresses électroniques. Par ailleurs, des chercheurs d’Anthropic, le créateur du chatbot Claude, ont découvert que même les modèles d’IA les plus avancés peuvent être trompés pour ignorer leurs mécanismes de protection en modifiant simplement le format des entrées.
Il est évident que nous sommes encore à une étape précaire de cette technologie, mais cela n’a pas empêché de nombreuses entreprises de confier les données de leurs clients à des modèles d’IA.
Plus sur l’IA
Un éditeur de grande taille a licencié plus de 100 employés après avoir conclu un accord avec OpenAI.
FAQ
Quel type de données a été divulgué par Sage Copilot ?
Le Sage Copilot a exposé des informations financières clients, y compris des données de facturation.
Pourquoi Sage considère-t-elle cela comme un problème mineur ?
Sage a noté que la fuite n’a touché qu’un très petit nombre de clients et que les informations divulguées n’étaient pas sensibles.
Quelles mesures ont été prises après l’incident ?
L’assistant IA a été démis de ses fonctions pendant plusieurs heures pour résoudre le problème de sécurité lié aux informations divulguées.
Quelles sont les préoccupations autour de l’utilisation de l’IA ?
Les préoccupations incluent le risque de fuites de données, les problèmes de contrôle des modèles d’IA, et la difficulté d’intégrer ces technologies en toute sécurité dans les processus d’affaires existants.
D’autres entreprises ont-elles connu des incidents similaires ?
Oui, plusieurs entreprises ont signalé des problèmes liés à la confidentialité des données avec leurs systèmes d’IA, mettant en lumière les défis associés à l’utilisation de cette technologie.
