Intelligence Artificielle

Découverte du Compte Secreto de ChatGPT lié à un Tireur de Masse

OpenAI Lance GPT-5.3-Codex-Spark : Une IA Réactive pour le Codage Instantané

Les contenus et recommandations de produits sur ADGO.ca sont entièrement indépendants d’un point de vue éditorial. Nous pouvons réaliser des bénéfices lorsque vous cliquez sur des liens vers nos partenaires.
En savoir plus

Un double coup de tonnerre à Tumbler Ridge

Ce mois-ci, Tumbler Ridge en Colombie-Britannique a été le théâtre de deux événements tragiques. D’abord, la silence troublant d’une salle de classe où huit vies ont été perdues. Puis, dans les bureaux du gouvernement à Ottawa, où des responsables ont exigé des explications de la part de Silicon Valley concernant les connnaissances d’un chatbot et le moment où celles-ci ont été acquises.

Alors que le Canada est encore sous le choc de l’une de ses pires fusillades scolaires, l’attention s’est déplacée des enquêtes judiciaires vers la trace numérique laissée sur ChatGPT. OpenAI, la société concernée, a révélé qu’avant le drame du 10 février, elle avait détecté et banni un compte associé au tireur en raison de contenus violents.

Une alerte ignorée

Pourtant, aucune alerte n’a été envoyée aux forces de l’ordre à ce moment-là. Cette décision, ainsi que la création d’un second compte par le suspect, a incité des leaders canadiens à demander l’instauration de nouveaux protocoles concernant le traitement des menaces potentielles par les entreprises d’intelligence artificielle.

A lire :  Google Étend son Abonnement AI Plus à 35 Nouveaux Pays

Qu’est-ce qui s’est passé avant la fusillade?

En juin 2025, soit environ huit mois avant le drame, les systèmes internes de détection d’abus d’OpenAI avaient déjà signalé un compte ChatGPT lié à Jesse Van Rootselaar, un jeune homme de 18 ans, dont les messages faisaient état de scénarios violents préoccupants.

Une révision interne a alors conclu à une violation des politiques d’utilisation, menant à la suspension du compte. Cependant, OpenAI a précisé qu’elle n’avait pas signalé le cas à la Gendarmerie royale du Canada à l’époque, arguant que le contenu ne remplissait pas ses critères de gravité — il n’y avait pas de plan « crédible et imminent » de danger physique sérieux.

Inconsciemment, les autorités ont manqué de repérer que Van Rootselaar avait ensuite créé un second compte sur ChatGPT, qui est également passé inaperçu. Ce fait n’a été révélé que lorsque la police a désigné le suspect du tir à Tumbler Ridge. Lors de cette attaque du 10 février, huit personnes, dont des enfants et un enseignant, ont perdu la vie avant que le tireur ne se suicide.

Actions d’OpenAI

Dans une correspondance avec Ottawa, OpenAI a exposé les mesures qu’elle envisage de prendre. La société a indiqué qu’elle compte améliorer ses systèmes pour mieux identifier les tentatives de contournement des interdictions, modifier ses seuils internes afin que des cas similaires soient désormais soumis aux forces de l’ordre, et établir des points de contact clairs avec les autorités canadiennes.

Ann O’Leary, vice-présidente d’OpenAI chargée des politiques mondiales, a également souligné que si ces protocoles avaient été en place à l’époque, le compte initial aurait été signalé à la police.

A lire :  Outils IA Incontournables pour Optimiser vos Rencontres Amoureuses

Le Canada appelle à plus de responsabilité

Les responsables canadiens considèrent cette situation comme bien plus qu’une simple gestion interne d’entreprise. Le ministre de l’Intelligence artificielle, Evan Solomon, a réuni des représentants de sécurité d’OpenAI à Ottawa afin d’évaluer les décisions et les protocoles de sécurité de l’entreprise. Solomon s’est dit très préoccupé par le retard d’alerte et a insisté sur le fait que toutes les options politiques, y compris la réglementation des chatbots AI, sont à l’étude pour assurer la sécurité publique.

Le Premier ministre de la Colombie-Britannique, David Eby, a rebondi sur ces inquiétudes, affirmant qu’il semblait, de l’extérieur, qu’OpenAI avait eu l’opportunité d’alerter les autorités plus tôt afin d’éventuellement prévenir ce drame. Il a également exhorté à une analyse détaillée des critères d’escalade de l’entreprise et à un renforcement de la collaboration en matière de sécurité publique.

Un débat en évolution

Le débat actuel se situe à l’intersection de la vie privée, de la technologie et de la sécurité publique. OpenAI défend ses protocoles comme étant un équilibre délicat entre le respect de la vie privée des utilisateurs et la nécessité d’intervenir face à des risques réels.

La société rappelle que les références à la police ont toujours reposé sur un seuil élevé, qu’elle estime non atteint dans ce cas. Cependant, grâce à de nouveaux systèmes et à des promesses de collaboration plus étroite avec les forces de l’ordre, OpenAI souhaite démontrer qu’elle a tiré des leçons d’un drame qui a profondément ébranlé la nation.

Il est probable que cette conversation entamée par le Canada trouve un écho bien au-delà de ses frontières, alors que gouvernements et entreprises technologiques réfléchissent aux limites de la surveillance de l’IA.

Pour en savoir plus sur les dernières initiatives de sécurité d’OpenAI, consultez notre couverture de son nouveau Mode de verrouillage conçu pour contrer les **attaques par injection de requêtes**.

FAQ

Quelles mesures sont recommandées pour prévenir une autre tragédie similaire ?

Les experts suggèrent de mettre en place des alertes systémiques pour signaler rapidement les contenus menaçants aux autorités de manière proactive.

A lire :  Indignation des Journalistes de Gannett face à un Contrat Autorisant l'Utilisation de l'IA pour Produire des Articles

OpenAI a-t-elle déjà pris des mesures similaires dans le passé ?

Oui, l’entreprise a déjà mis en œuvre des politiques de détection et de suspension de comptes en cas de contenu violent, mais les seuils de déclenchement pour alerter les forces de l’ordre ont été jugés trop élevés.

Qu’est-ce que le “Mode de verrouillage” introduit par OpenAI ?

Le “Mode de verrouillage” est une fonctionnalité récemment développée pour renforcer la sécurité et faire face aux tentatives de manipulations malveillantes par le biais d’injections de requêtes.

Quelles conséquences juridiques pourraient résulter de cette situation pour OpenAI ?

Cela pourrait impliquer l’examen de la réglementation concernant les obligations des entreprises technologiques en matière de sécurité publique, particulièrement en ce qui concerne le partage d’informations avec les autorités.

Quels rôles peuvent jouer les gouvernements dans la régulation des intelligences artificielles ?

Les gouvernements peuvent établir des lois et des régulations pour garantir que les entreprises d’IA opérent dans un cadre de responsabilité, tout en équilibrant la protection de la vie privée des utilisateurs et la sécurité publique.