Open IA a annoncé, vendredi, une refonte de ses protocoles de sécurité pour mieux collaborer avec les autorités canadiennes afin que des tragédies comme celles de Tumbler Ridge «puissent être évitées dans le futur».
«À la demande des ministres, nous établirons des points de contact direct avec les autorités canadiennes pour nous assurer de leur faire parvenir rapidement les cas lors desquelles nous faisons un référencement basé sur le potentiel de violence», a assuré Ann M. O’Leary, la vice-présidente des politiques mondiales d’Open AI, la maison-mère de Chat GPT.
Ces engagements ne représentent que les «premières étapes»
OpenAI s’engage aussi à continuer de renforcer son processus menant à ces référencements en se basant notamment sur des experts en santé mentale et en comportements.
Les ressources d’aide vers lesquelles les personnes qui semblent en détresse sont redirigées par ChatGPT seront également mieux ciblées en fonction de la communauté dans laquelle elles se trouvent, a déclaré O’Leary. Selon cette dernière, ces engagements ne représentent que les «premières étapes» d’amélioration de la sécurité de son IA.
«Dans les mois qui suivront, OpenAI discutera avec Ottawa et les provinces, nos partenaires de l’industrie et des acteurs locaux pour s’assurer que nous répondons collectivement aux besoins des Canadiens alors que nous continuons à améliorer nos modèles et politiques de sécurité».
Le ministre de l'IA réagit
Evan Solomon, ministre de l’Intelligence artificielle et de l’Innovation, a déclaré vendredi vouloir faire la lumière sur «la façon dont les plateformes numériques réagissent lorsque des signes avant-coureurs crédibles de violence se manifestent.»
Il doit par ailleurs rencontrer le PDG d’OpenAI, Sam Altman la semaine prochaine. Mardi soir, des ministres du gouvernement Carney ont blâmé ChatGPT pour ses mesures de sécurité défaillantes révélées après le massacre de Tumbler Ridge.
Ces derniers sortaient alors d’une rencontre avec des représentants d’Open AI.
L'enquête policière est toujours en cours
«Nous avons discuté de la manière dont les risques imminents et crédibles sont identifiés, de la manière dont les cas passent de la détection automatisée à l’examen humain et de la manière dont les signalements sont traités, en particulier lorsque des jeunes peuvent être impliqués. Nous n’avons pas discuté des détails de l’affaire, car l’enquête policière est toujours en cours», a déclaré Salomon via un communiqué publié sur X suite à la réunion.
Des scénarios violents partagés à Chat GPT
Cette réunion faisait suite aux révélations du quotidien américain The Wall Street Journal comme quoi l’autrice de la tuerie de Tumbler Ridge, en Colombie-Britannique, Jesse Van Rootselaar, avait confié à l’agent conversationnel des intentions violentes en juin dernier, soit des mois avant de passer à l’acte.
OpenAI n’a donné cette information à la police qu’après les faits. Jesse Van Rootselaar a ouvert le feu le 10 février dans l’école secondaire de la petite communauté de Colombie-Britannique Tumbler Ridge, tuant huit personnes.
Rootselaar s'était créée un 2e compte
Suite aux scénarios violents qu’a partagés la tireuse à Chat GPT sur une durée de plusieurs jours, OpenAI a alors décidé de suspendre son compte, sans avertir les autorités canadiennes de la situation.
Dans une lettre envoyée jeudi au gouvernement canadien, le géant de l’IA américain a justifié cette décision en affirmant qu’ils n’avaient « pas identifié de plan crédible ou imminent qui atteignait [leur] seuil à partir duquel l’affaire devait être référée aux forces de l’ordre. »
OpenAI a rapporté vendredi que la tireuse en question avait également contourné leur interdiction d’utiliser ChatGPT en se créant un deuxième compte. L’entreprise affirme qu’elle n’en a découvert l’existence qu’après l’annonce du nom de Jesse Van Rootselaar par la GRC.
Mardi, le gouvernement canadien a indiqué être ouvert à une réglementation plus ferme de l’IA si des mesures n’étaient pas prises pour améliorer les protocoles de sécurité.