Je viens de finir de lire quelques articles d'enquête sur ce qui s'est passé fin février lors de l'Opération Epic Fury, et honnêtement, tout cela ressemble à une masterclass sur le fonctionnement de la guerre moderne aujourd'hui— sauf que personne ne parle vraiment de l'infrastructure sous-jacente.



Ce qui m'a frappé : ce n'était pas juste une opération militaire de plus. C'était essentiellement un test de résistance à l'IA en zone de guerre en direct. Tout reposait sur la compression de ce que les militaires appellent la boucle capteur-décision-tireur en quelques minutes, parfois en secondes. Celui qui maîtrise cette compression détient le levier géopolitique pour la prochaine décennie.

Laissez-moi vous présenter les acteurs, car c'est là que ça devient intéressant.

OpenAI est passé de « nous ne faisons pas de trucs militaires » à devenir ce qui pourrait être l'abonnement SaaS le plus coûteux du Pentagone en à peine deux ans. Sam Altman a annoncé qu'ils avaient signé un contrat pour déployer des modèles GPT sur des réseaux classifiés pour l'analyse de renseignements, la traduction, les simulations de combat. Les lignes rouges publiques semblent raisonnables—pas de surveillance de masse domestique, les humains restent dans la boucle pour les décisions létales. Mais voici le truc : alimenter ces modèles avec des images satellites, du renseignement d'origine électromagnétique, des flux de médias sociaux, et leur faire trier des cibles, prévoir des mouvements, évaluer des risques ? C'est en gros un cerveau de champ de bataille. Et ça vaut apparemment des centaines de millions.

Anthropic a pris le chemin inverse. Ils ont maintenu des limites éthiques plus strictes lors des négociations avec le Pentagone et ont été complètement démolés pour ça. Le secrétaire à la Défense les a littéralement qualifiés de « risque pour la chaîne d'approvisionnement »—le même label utilisé auparavant pour des entreprises technologiques chinoises. Ce label signifiait essentiellement que les contractants militaires avaient six mois pour retirer Claude de leurs systèmes. Le message était clair pour tous ceux qui regardaient : ne pas pousser contre ce que veut le Pentagone.

Mais là où le vrai pouvoir se trouve : Microsoft et Google. Si les IA sont le cerveau, ces deux-là sont le système nerveux central. Sans leur infrastructure cloud, tous ces modèles ne sont que des diapositives PowerPoint.

Microsoft Azure a vu l'utilisation de machine learning militaire israélien exploser de 64 fois en quelques mois à partir de fin 2023. Ils traitent des volumes de données équivalents à toute la Bibliothèque du Congrès. C'est utilisé pour transcrire des communications, traiter des données de surveillance, et travailler avec des systèmes locaux pour générer automatiquement des listes de cibles. Microsoft a subi des critiques et a réduit certains services, mais les contrats d'IA militaire principaux ont continué.

Le projet Nimbus de Google est encore plus chargé politiquement—1,2 milliard de dollars d'infrastructure cloud pour Israël depuis 2021. Les employés protestent contre ça depuis des années. L'infrastructure supporte la simulation de champ de bataille, la fusion de renseignements, la planification de cibles complexes. Google affirme que ce n'est pas pour un usage militaire offensif, mais tout le monde dans l'industrie sait que c'est la fonctionnalité principale.

Et là où ça devient vraiment inquiétant : Israël utilise des systèmes comme Lavender, Gospel, et « Where's Daddy » qui automatisent essentiellement l'identification de cibles à grande échelle. Lavender a cartographié les comportements de presque tous les hommes adultes de Gaza, leur a attribué des « scores de combattant » sur une échelle de 1 à 100, identifié 37 000 cibles suspectes. Gospel marque des bâtiments pour bombardement. « Where's Daddy » suit quand les cibles rentrent chez elles avec leur famille pour maximiser les pertes civiles. La revue humaine prend apparemment environ 30 secondes par cible.

La partie effrayante ? La logique technique de ces systèmes est portable. Si vous avez des données de communication, des trajectoires de localisation, des réseaux sociaux d'une région, vous pouvez théoriquement appliquer la même logique de machine de guerre algorithmique à n'importe quelle cible. Certains analystes pensent que c'est précisément ce qui s'est passé lors d'Epic Fury—une guerre algorithmique à Gaza, montée en puissance jusqu'à Téhéran.

Du point de vue du marché, ce qui se passe est fou. Un nouveau complexe IA-Cloud-Défense se forme, où la binarité « tech traditionnel vs. actions de défense » ne s'applique plus. Les entreprises prêtes à négocier sur l’éthique obtiennent les contrats massifs. Celles qui tiennent bon sur leurs principes sont étiquetées comme risques pour la sécurité et mises à l’écart. Pendant ce temps, les géants du cloud absorbent la majorité des flux financiers tout en accumulant des bombes à retardement réputationnelles et réglementaires.

La structure d’incitation ici est brutale : quand les contrats vont à ceux qui sont « alignés avec la sécurité nationale », les lignes rouges éthiques deviennent un désavantage compétitif. Ce n’est pas juste un problème commercial—c’est un problème systémique que chaque futur entrepreneur et investisseur vient d’apprendre à ses dépens.

Et ce qui me fait continuer à réfléchir à tout ça : Epic Fury pourrait bien n’être que le prologue. Que ce soit le prochain conflit dans le détroit de Taiwan, en Europe de l’Est, ou ailleurs au Moyen-Orient, le rythme de la guerre ne sera plus déterminé par le nombre de chars ou d’artillerie. Ce sera déterminé par des modèles entraînés sur des pétaoctets de données classifiées et une infrastructure cloud connectée à des milliers de GPU.

Avant de continuer à externaliser davantage de chaînes de commandement à quelques entreprises de modèles et de cloud, quelqu’un doit sérieusement répondre à la question : qui est réellement responsable lorsque des recommandations algorithmiques deviennent des coordonnées de bombardement ? Parce qu’en ce moment, cette question semble systématiquement évitée.
EPIC6,89%
SAAS-3,84%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler