Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
OpenAI et Anthropic : de la "moquerie" à la différence : Une bataille éthique avec le ministère américain de la Défense
Depuis quelque temps, ces deux géants de l’IA ont publiquement se moqué l’un de l’autre sur les plateformes médiatiques pour attirer des utilisateurs. Mais lorsque le Département de la Défense américain est intervenu, ils ont soudainement dû se rallier pour faire face à la pression du Pentagone. Ce combat ne concerne pas seulement l’argent ou les contrats militaires, mais une question fondamentale : comment l’IA doit-elle être utilisée lorsque la sécurité nationale est en jeu ?
De “se moquer” à alliance : pourquoi ces deux entreprises d’IA se retrouvent face au Pentagone
Autrefois, le débat entre OpenAI et Anthropic était rude. Claude a été développé par une équipe issue de OpenAI, et les deux entreprises se livraient une concurrence féroce pour conquérir des utilisateurs, des clients professionnels et des investissements. Lors du Super Bowl de l’année dernière, Anthropic a même dépensé de l’argent pour se moquer de ChatGPT d’OpenAI dans leurs publicités télévisées. C’était le niveau de tension entre eux.
Mais la situation a changé lorsque Anthropic a signé un contrat de 200 millions de dollars avec le Département de la Défense américain. Claude est devenu le premier modèle d’IA déployé sur le réseau informatique secret de l’armée américaine, pour soutenir l’analyse du renseignement et la planification des missions. Cependant, Anthropic a posé deux conditions claires : Claude ne doit pas être utilisé pour la surveillance de masse des citoyens américains, ni développé en arme autonome sans contrôle humain.
Le Pentagone n’a pas accepté. Leur position est simple : lorsqu’ils achètent un outil, ils l’utilisent librement, sans que la société technologique leur dise quoi faire. Le secrétaire à la Défense Hegseth a lancé un ultimatum direct : Anthropic doit accepter avant 17h01 vendredi, sinon il en subira les conséquences. Le PDG d’Anthropic a refusé. Il a publiquement déclaré que, bien qu’il comprenne l’importance de l’IA pour la défense nationale, dans certains cas, l’IA peut nuire aux valeurs démocratiques. Nous ne pouvons pas accepter cette demande en conscience.
La réaction du Pentagone a été virulente. Le sous-secrétaire à la Défense Emil Michael a insulté le PDG d’Anthropic sur les réseaux sociaux, le traitant de fraudeur en ligne, affirmant qu’il a une mentalité de sauveur du monde, et qu’il plaisante avec la sécurité nationale.
Ce qui n’était pas prévu s’est produit. Plus de 400 employés d’OpenAI et de Google ont signé une lettre publique commune intitulée “Nous ne serons pas divisés”. La lettre dénonce le fait que le Pentagone exploite une tactique de division, en négociant séparément avec chaque entreprise d’IA et en essayant de faire accepter aux autres ce que Anthropic refuse.
Le PDG d’OpenAI a également envoyé une note interne à tous ses employés, affirmant que OpenAI partageait les mêmes lignes rouges qu’Anthropic : pas de surveillance de masse, pas de développement d’armes autonomes létales. Il y a seulement quelques jours, ils ne se parlaient pas, et voilà que ces deux entreprises s’unissent soudain pour faire face à la pression du Pentagone. Cette solidarité semble être une victoire des principes éthiques.
La ligne rouge éthique : Anthropic reste ferme, OpenAI recule
Mais cette unité n’a duré que quelques heures. Lorsque l’ultimatum a expiré, Anthropic a refusé de signer. Une entreprise valorisée à 380 milliards de dollars est prête à faire face au risque d’annulation du contrat de 200 millions de dollars avec le Département de la Défense américain.
La réaction de Washington n’est pas commerciale. Trump a publié sur Truth Social une heure plus tard, qualifiant Anthropic de “fous de gauche” et affirmant qu’ils tentent de se placer au-dessus de la Constitution, plaisantant avec la vie des soldats américains. Il a exigé que toutes les agences fédérales cessent immédiatement d’utiliser la technologie d’Anthropic.
Ensuite, le secrétaire à la Défense Hegseth a classé Anthropic dans la catégorie “risque pour la sécurité de la chaîne d’approvisionnement” — une étiquette habituellement réservée à des entreprises comme Huawei. Signification claire : tous les sous-traitants travaillant avec l’armée américaine ne doivent pas utiliser les produits d’Anthropic. Anthropic a annoncé qu’elle porterait plainte en justice.
Ce même soir, OpenAI — qui maintenait jusqu’ici une position similaire — a signé un accord avec le Pentagone. La question est : qu’a-t-elle obtenu ?
D’abord, une position de monopole : devenir le fournisseur d’IA pour le réseau secret de l’armée américaine après le retrait de Claude. Mais OpenAI a aussi posé trois conditions : pas de surveillance de masse, pas de développement d’armes autonomes, et toute décision à haut risque doit impliquer une participation humaine.
Le Département de la Défense américain a dit qu’il acceptait.
Exactement — ces conditions que Anthropic a hésité à accepter pendant plusieurs semaines, mais qu’une autre entreprise a négociées en quelques jours. Cependant, ces solutions ne sont pas totalement identiques. Anthropic a ajouté une couche de protection supplémentaire : ils estiment que la législation actuelle ne suit pas le rythme des capacités de l’IA. Par exemple, l’IA peut légalement acheter et synthétiser des données de localisation, d’historique de navigation et de réseaux sociaux, créant ainsi un effet de surveillance sans enfreindre la loi. Anthropic pense que se contenter d’écrire “pas de surveillance” est insuffisant, et qu’il faut combler ces lacunes juridiques.
OpenAI ne s’est pas montré aussi strict sur ce point. Elle accepte l’idée que la législation en vigueur est suffisante, comme le pense le Pentagone. Mais si vous pensez que cela ne concerne que des différences de clauses, vous vous trompez. Derrière ces chiffres et ces contrats, se joue une bataille idéologique.
David Sacks, le “roi de l’IA” à la Maison-Blanche, a publiquement critiqué Anthropic pour avoir développé une “IA woke” — poursuivant la rectitude politique plutôt que la performance. Un haut responsable du Pentagone a déclaré aux médias que le problème d’Anthropic est dû à une idéologie dominante. xAI d’Elon Musk, concurrent direct d’Anthropic, attaque régulièrement cette dernière sur X, affirmant qu’Anthropic “déteste la civilisation occidentale”. Fait notable, le PDG d’Anthropic n’a pas assisté à la cérémonie d’investiture de Trump l’année dernière, alors que celui d’OpenAI y était présent.
L’effet “tuer la poule pour effrayer le singe” et l’avenir des entreprises d’IA
Alors, résumons ce qui s’est passé. Même principe éthique, même ligne rouge, Anthropic a ajouté une couche de protection supplémentaire, a montré une posture erronée, et a été classée comme une menace à la sécurité nationale des États-Unis, au même titre que Huawei. OpenAI a omis une couche, a maintenu de bonnes relations avec le gouvernement, et a obtenu un contrat en exploitant cette relation.
Est-ce une victoire des principes ou simplement une valorisation de ces principes ?
Les contrats militaires précédemment contestés ne sont pas une première. En 2018, plus de 4 000 employés de Google ont signé une pétition, et une dizaine ont démissionné pour protester contre la participation de Google au Project Maven — un projet du Pentagone utilisant l’IA pour analyser des vidéos de drones afin d’aider l’armée à identifier rapidement ses cibles. Google a finalement quitté le projet. Sans renouvellement, simplement en se retirant. La victoire des employés.
Huit ans plus tard, un débat similaire refait surface. Mais cette fois, la règle du jeu a complètement changé.
Une entreprise américaine m’a dit qu’elle pouvait faire des affaires avec l’armée, mais à deux conditions : ne pas faire deux choses. La réaction du gouvernement américain a été de l’exclure de tout le système fédéral. La mention “risque pour la sécurité de la chaîne d’approvisionnement” cause des dommages bien plus profonds que la simple perte d’un contrat de 200 millions de dollars. Le chiffre d’affaires d’Anthropic cette année est d’environ 14 milliards de dollars, donc ce contrat n’est qu’un petit montant. Mais cette étiquette signifie que toute entreprise traitant avec l’armée américaine ne peut pas utiliser Claude.
Ces entreprises ne sont pas obligées d’être d’accord avec la position du Pentagone. Elles doivent simplement faire une évaluation de risque très simple : continuer à utiliser Claude pourrait leur faire perdre un contrat gouvernemental ; changer de modèle ne pose aucun problème. Le choix est extrêmement facile.
C’est là le vrai signal de cette affaire. Peu importe si Anthropic peut supporter la pression ou non. L’essentiel, c’est si la prochaine entreprise osera le faire. Elle examinera cette issue, calculera le coût de la fidélité à ses principes éthiques, puis prendra une décision rationnelle d’un point de vue économique. La stratégie du “tuer la poule pour effrayer le singe” — éliminer une entreprise pour faire peur aux autres — est en train de se mettre en place.
En regardant cette image de l’Inde, où tout le monde se serre la main en levant le poing, peut-être que c’est cela, la véritable normalité. Les principes éthiques des entreprises d’IA peuvent être semblables, mais leurs mains ne doivent pas forcément se rejoindre — surtout quand les politiciens encouragent la moquerie et la punition de ceux qui ne se conforment pas.