Intelligence Artificielle

OpenAI Dans le Tourbillon de Poursuites Après la Non-Déclaration d’un Tireur à l’École

OpenAI Dans le Tourbillon de Poursuites Après la Non-Déclaration d'un Tireur à l'École

Un procès contre OpenAI pour négligence

Contexte de la tragédie

Sept familles de victimes, représentant la première de plusieurs actions judiciaires selon les avocats, intentent un procès contre OpenAI. Elles accusent l’entreprise d’avoir omis de fournir aux autorités canadiennes des informations qui auraient pu prévenir un tragique incident de violence armée survenu dans la petite ville minière de Tumbler Ridge, en Colombie-Britannique. Ces familles affirment qu’OpenAI connaissait les conversations troublantes entre l’assaillant et le chatbot ChatGPT.

L’attaque à Tumbler Ridge

En février 2025, Jesse Van Rootselaar, alors âgée de 18 ans, a tué sa mère et son demi-frère avant de se rendre à l’école secondaire de Tumbler Ridge, où elle a ouvert le feu sur élèves et enseignants avec un fusil modifié. Cette tragédie a coûté la vie à cinq étudiants, âgés de 12 à 13 ans, ainsi qu’à un enseignant, tandis que 27 autres personnes ont été blessées. La violence a été telle que plusieurs parents ont dû identifier leurs enfants par leurs vêtements, tant les blessures étaient sévères. L’assaillante a mis fin à ses jours après les faits.

L’utilisation de ChatGPT par le tireur

Van Rootselaar faisait partie des millions d’utilisateurs de ChatGPT. En juin 2025, des outils de modération automatisés d’OpenAI avaient détecté ses échanges concernant la violence de masse. Suite à cela, des examinateurs humains s’étaient inquiétés des conversations qu’elle tenait, estimant qu’elles représentaient une menace imminente pour autrui. Malheureusement, après une discussion interne, OpenAI a choisi de désactiver son compte plutôt que d’alerter les forces de l’ordre.

Accusations contre OpenAI

Les poursuites judiciaires qualifient ChatGPT de « co-conspirateur » dans ce massacre et soutiennent que, si OpenAI avait alerté les autorités, des actions auraient pu être entreprises avant qu’il ne soit trop tard. L’inaction d’OpenAI est perçue comme un choix commercial, motivé par la crainte de responsabilités futures qui potentiellement altéreraient son image publique et ses objectifs financiers, notamment sa préparation à une introduction en bourse (IPO).

Familles des victimes

Les plaignants comprennent les familles des victimes, parmi lesquelles se trouvent des adolescents comme Ezekiel Schofield et Zoey Benoit, ainsi que Shannda Aviugana-Durand, une assistante éducative de 39 ans. De plus, la famille de Maya Gebala, une jeune fille de 12 ans blessée gravement au cou et à la tête, fait également partie des requérants. Malgré sa survie, ses blessures sont considérées comme « catastrophiques ». Le procès vise à tenir OpenAI responsable de sa conception d’un produit jugé dangereux et de sa décision de prioriser le profit au détriment de la sécurité des enfants.

OpenAI en réponse

OpenAI a confirmé que le compte de Van Rootselaar avait été désactivé en raison de conversations jugées extrêmes. Cependant, après cette désactivation, elle a rapidement créé un nouveau compte, ce qui a conduit à des accusations d’OpenAI d’avoir échoué à mettre en place des garde-fous efficaces. D’ailleurs, la société a justifié sa décision de ne pas alerter les autorités en arguant qu’il n’y avait pas de menace immédiate.

FAQ

Quel a été l’impact de la tragédie à Tumbler Ridge sur les communautés locales ?

La tragédie a causé une onde de choc dans la communauté de Tumbler Ridge, qui fait face à un traumatisme collectif, et conduit à la fermeture de l’école secondaire, les élèves poursuivant leurs études dans des remorques temporaires.

Quelles mesures OpenAI prend-elle pour améliorer la sécurité ?

OpenAI a déclaré qu’elle travaillait continuellement à raffiner ses outils de modération pour mieux détecter les interactions à risque. Cependant, la mise en place de protocoles clairs concernant la communication des menaces sérieuses reste à éclaircir.

Comment cette affaire pourrait-elle influencer la régulation des IA en général ?

Cette situation soulève des questions importantes concernant la responsabilité des entreprises technologiques et pourrait inciter les gouvernements à instaurer des normes plus strictes pour l’utilisation des technologies d’intelligence artificielle, surtout en matière de sécurité publique.

Quels sont les précédents de cas similaires concernant les technologie d’IA ?

D’autres cas ont déjà mis en lumière les implications éthiques et légales des technologies d’IA, comme des utilisations nocives dans les cas de harcèlement ou de fraude, incitant à une réflexion collective sur leurs régulations.

Quelles sont les implications futures des procès contre OpenAI ?

Les résultats de cette affaire pourraient redéfinir les responsabilités des sociétés tech dans la prévention de la violence, pouvant mener à une adoption de lois visant à protéger le public contre les abus liés aux technologies émergentes.

Quitter la version mobile