Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Les employés de Goldman Sachs à Hong Kong ont été suspendus de Claude, Anthropic admet : ils n'ont jamais pris en charge la région de HK, la régulation géographique de l'IA s'intensifie
L’édition britannique du « Financial Times » en exclusivité, Bloomberg le 29 avril a confirmé : le personnel de la succursale de Goldman Sachs à Hong Kong a perdu l’accès à Claude il y a quelques semaines, en raison d’une interprétation contractuelle stricte après consultation avec Anthropic, confirmant que les employés de Hong Kong ne peuvent pas utiliser les produits d’Anthropic ; un porte-parole d’Anthropic a également déclaré pour la première fois que le modèle Claude « n’a jamais été officiellement supporté à Hong Kong ».
(Ce n’est pas seulement une révision de la politique IT d’une banque — cela révèle les limites de service des fournisseurs d’IA dans le contexte des tensions géopolitiques entre la Chine et les États-Unis, ainsi que la réduction silencieuse des outils disponibles pour les institutions financières étrangères (y compris les départements de cryptomonnaie) à Hong Kong.)
(Précédent : La mythologie d’Anthropic a été si forte qu’une réunion d’urgence a été convoquée : Bessent, Powell ont rassemblé Citi, Goldman Sachs, Bank of America, JPMorgan Chase, les cinq grandes banques se concentrant sur les risques financiers)
(Contexte supplémentaire : Anthropic exige une vérification KYC en nom réel ! Certaines fonctionnalités de Claude nécessiteront le téléchargement de pièces d’identité, ce qui étend la pression réglementaire)
Les employés de la succursale de Goldman Sachs à Hong Kong ont, sans aucun avis officiel, silencieusement perdu un outil — Claude d’Anthropic.
Lundi 28 avril, le « Financial Times » a rapporté en exclusivité, et le lendemain, Bloomberg a confirmé : sur la plateforme d’IA interne de Goldman Sachs, Claude a été complètement désactivé pour les employés de Hong Kong, bloquant toutes les utilisations telles que l’assistance à la programmation ou l’analyse de fichiers. D’autres modèles principaux — Google Gemini, OpenAI ChatGPT — sont toujours opérationnels, seul Claude est absent.
Ce n’est pas un accident, c’est le résultat d’une interprétation contractuelle
L’incident ne résulte pas d’une panne technique, mais d’une décision de conformité d’entreprise. Après consultation avec Anthropic, Goldman Sachs a adopté une position d’interprétation contractuelle stricte, concluant que : les employés de Hong Kong ne relèvent pas du périmètre de service d’Anthropic, et ne peuvent donc utiliser aucun produit d’Anthropic.
La réponse officielle d’Anthropic est brève et claire — un porte-parole a indiqué au FT que le modèle Claude « n’a jamais été officiellement supporté à Hong Kong », refusant de faire d’autres commentaires.
Cette déclaration repose sur des bases concrètes : la liste officielle des régions supportées par Anthropic n’a jamais inclus Hong Kong, et Claude a longtemps été bloqué au niveau IP à Hong Kong. Cette restriction n’est pas dictée par la réglementation hongkongaise, mais résulte d’une politique proactive d’Anthropic.
Pourquoi Hong Kong n’est pas dans la liste de support ? Une logique en trois couches
La première couche concerne l’environnement juridique. Après l’entrée en vigueur de la « Loi sur la sécurité nationale » en 2020, le cadre juridique de Hong Kong a créé une incertitude quant à la souveraineté des données et aux obligations de conformité pour les entreprises technologiques américaines, poussant Anthropic à adopter une approche prudente.
La deuxième couche concerne les relations avec le gouvernement américain. Anthropic détient de nombreux contrats avec le gouvernement fédéral américain, notamment dans la défense et le renseignement, et doit aligner ses politiques de contrôle géopolitique avec le cadre d’exportation américain. Anthropic est également un promoteur public des restrictions à l’exportation de puces avancées américaines.
La troisième couche concerne les préoccupations de sécurité du modèle. Début 2026, Anthropic a publiquement accusé des laboratoires d’IA chinois, dont DeepSeek, d’avoir effectué plus de 16 millions d’interactions pour « distiller le modèle (model distillation) », extrayant systématiquement les capacités de Claude. Cet incident a renforcé la position d’Anthropic sur les restrictions d’accès dans les régions liées à la Chine.
Il est important de noter qu’en 2026, Anthropic a mis à jour ses conditions de service pour inclure une restriction mondiale de propriété : toute entreprise dont une entité chinoise détient directement ou indirectement plus de 50 % des actions, peu importe le pays d’établissement ou d’exploitation, se voit interdire d’utiliser Claude.
Goldman Sachs n’est ni le premier ni le dernier
Ce qui rend cet incident particulier, c’est que ce n’est pas Anthropic qui a volontairement retiré le service à Goldman Sachs, mais que Goldman Sachs a consulté et décidé de resserrer ses contrôles. Cela indique que les institutions financières étrangères ont commencé à intégrer la conformité géopolitique des outils d’IA dans leurs processus de gestion des risques.
La succursale de Goldman Sachs à Hong Kong est elle-même un partenaire de règlement pour plusieurs grandes institutions cryptographiques, un contrepartie OTC et un conseiller en conformité. Si ce type de contrôle devient une pratique standard dans le département des banques étrangères à Hong Kong, cela impactera non seulement les ingénieurs en technologie, mais aussi les activités dépendant fortement de l’IA telles que le trading d’actifs cryptographiques, la conception de produits structurés, la diligence raisonnable client, etc.
On ne sait pas encore si d’autres banques étrangères ont adopté des mesures similaires. Mais selon un rapport du SCMP, avec le renforcement de l’authentification d’identité (y compris KYC) par Anthropic, le nombre d’utilisateurs à Hong Kong accédant à Claude via VPN ou par des moyens clandestins est en augmentation — ce qui montre qu’il y a une demande, mais que la voie réglementaire est bloquée.
Les outils d’IA ont aussi des limites géopolitiques
Ce n’est pas la première fois qu’un outil d’IA est limité pour des raisons géopolitiques, mais la signification de cette situation est particulièrement claire : lorsque Claude d’Anthropic devient une partie intégrante des flux de travail des institutions financières, ses limites de service ne sont plus seulement une décision commerciale, mais une extension de la réalité géopolitique.
Dans un contexte où la régulation de l’IA entre la Chine et les États-Unis reste floue, « quel modèle d’IA pouvez-vous utiliser » devient une question de conformité, de localisation, et aussi de politique.