Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
ChatGPT a bloqué le compte du tricheur il y a 8 mois mais n'a pas porté plainte, puis il a tué 8 personnes, Altman s'excuse
Canada’s British Columbia Tumbler Ridge a été le théâtre d’une fusillade en février de cette année, faisant 8 morts. Par la suite, il a été révélé qu’OpenAI avait déjà, huit mois avant l’incident, banni le compte ChatGPT du tireur Rootselaar pour « contexte lié à la violence armée », mais n’avait pas informé la police en invoquant « pas de seuil de menace immédiate ». Le PDG d’OpenAI, Sam Altman, a présenté ses excuses par lettre la semaine dernière.
(Précédent : Elon Musk poursuit OpenAI en justice : demande la suppression du statut de société à but lucratif, la destitution d’Altman, et réclame 134 milliards de dollars)
(Contexte supplémentaire : OpenAI publie les cinq grandes constitutions de l’AGI : l’IA ne doit pas être monopolisée par une minorité, le sacrifice peut apporter plus de résilience)
Table des matières de cet article
Basculer
Le 10 février 2026, une fusillade éclate dans la petite ville isolée de Tumbler Ridge, en Colombie-Britannique, Canada. Jesse Van Rootselaar, 18 ans, tue d’abord sa mère et son frère de 11 ans chez lui, puis se rend à l’école secondaire de la ville, causant la mort de 8 personnes, avant de se suicider.
L’enquête révèle qu’OpenAI, huit mois auparavant, avait déjà banni son compte ChatGPT pour « description de scénarios liés à la violence armée » dans une conversation, mais sans en informer aucune autorité policière.
Une période de vide de 8 mois
En juin 2025, le système automatique de détection d’abus de ChatGPT, associé à un modérateur humain, a marqué le compte de Van Rootselaar, qui a été suspendu. Selon OpenAI, lors de cette période, une discussion interne a eu lieu pour décider s’il fallait en informer la police.
La conclusion de cette discussion : non.
OpenAI indique que l’évaluation a conclu que le comportement du compte « ne répondait pas au seuil d’une menace immédiate et crédible de préjudice grave à autrui », et donc la procédure de signalement n’a pas été activée. Après la suspension, l’affaire est restée en interne. Le compte a été fermé, mais le signal n’a pas été transmis.
Ce n’est qu’après la fusillade de février 2026 qu’OpenAI a pris l’initiative de contacter les autorités canadiennes.
Qui a fixé le seuil de signalement ?
« La menace immédiate et crédible » est un seuil fixé par OpenAI lui-même, décidé par l’équipe de sécurité, juridique et politique de l’entreprise, qui détermine dans quelles situations il faut alerter la police. Ce standard n’est soumis à aucune régulation externe ni à une transparence publique sur la manière dont il est calibré.
Le compte de Van Rootselaar a passé le seuil « nécessitant un bannissement », mais pas celui « nécessitant un signalement » : ces deux seuils sont séparés dans la logique interne d’OpenAI.
Le 23 avril, Sam Altman a écrit une lettre d’excuses, publiée initialement dans le journal local TumblerRidgeLines. Dans cette lettre, il a écrit :
Avant la publication de cette lettre, Altman avait déjà échangé directement avec le maire de Tumbler Ridge, Darryl Krakowka, et le Premier ministre de la Colombie-Britannique, David Eby. Eby a partagé la lettre sur les réseaux sociaux le 24 avril, avec cette réponse : « Les excuses sont nécessaires, mais elles sont loin d’être suffisantes face à la destruction subie par ces familles de Tumbler Ridge. »
Changements et non-changements
OpenAI a annoncé qu’il allait assouplir les critères de signalement aux autorités, afin que davantage de situations de comptes déclenchent la procédure. Le ministre fédéral de l’Intelligence artificielle du Canada, Evan Solomon, a indiqué qu’Altman avait accepté d’établir un canal de communication direct avec la GRC (Royal Canadian Mounted Police), et qu’un nouveau mécanisme guiderait les utilisateurs exprimant des signaux de crise vers des services de soutien locaux.
Le gouvernement canadien évalue actuellement si une législation supplémentaire est nécessaire pour encadrer l’obligation de signalement des plateformes d’IA.
Mais le paradoxe demeure : beaucoup de personnes pourraient simplement exprimer des propos impulsifs ou émotionnels (vous aussi, vous avez sûrement dit « je veux mourir » pour vous soulager, non ?) et être signalées, ce qui pourrait dissuader les gens de confier leurs pensées à l’IA (ou peut-être pas si mal ?).
Pour l’instant, ce problème ne relève pas d’un manque de capacité d’OpenAI. ChatGPT détecte, les modérateurs voient, mais la question est : qui décide de ce seuil ? Qui l’interprète ? Comment en calibrer la juste mesure ?