À l'heure où l'IA générative envahit le monde, presque tous les LLM, services cloud et startups en IA reposent sur la même infrastructure clé, à savoir l'écosystème logiciel CUDA de NVIDIA (. Cette architecture logicielle, à l'origine conçue pour les cartes graphiques, s'est progressivement étendue au cours des deux dernières décennies pour devenir le « système d'exploitation invisible » qui fait fonctionner l'industrie de l'IA.
La startup Modular, fondée en 2022, tente de défier directement cette structure hautement centralisée et dominée par un seul fournisseur. L'objectif de Modular n'est pas de créer une nouvelle puce, mais de construire une “plateforme de pile logicielle AI portable” permettant aux modèles AI de se déplacer librement entre différents GPU et accélérateurs, sans être verrouillés dans l'écosystème de NVIDIA et CUDA.
Point de départ de l'entrepreneuriat en 2022, les ingénieurs de base s'attaquent directement au noyau CUDA.
Modular a été fondé en 2022 par deux ingénieurs logiciels de base venant d'Apple et de Google. Le PDG Chris Lattner a créé Swift et l'architecture du compilateur LLVM, tandis que le co-fondateur Tim Davis a participé à l'architecture logicielle clé du TPU de Google.
Les deux personnes ont vécu personnellement le processus par lequel le nouveau matériel « ouvre le marché grâce au logiciel », c'est pourquoi elles ont choisi de quitter de grandes entreprises technologiques pour défier directement la domination des logiciels d'IA représentée par CUDA. Cette guerre asymétrique est presque considérée comme folle dans l'industrie, mais c'est aussi en raison de leur compréhension approfondie des couches sous-jacentes du système qu'elles sont vues comme l'une des rares équipes ayant une chance d'essayer.
CUDA difficile à remplacer, les chaînes structurelles de l'industrie AI
CUDA était à l'origine un outil permettant de programmer les cartes graphiques, mais avec l'essor de l'apprentissage profond, il s'est progressivement élargi pour couvrir un écosystème complet comprenant des langages, des bibliothèques, des compilateurs et des moteurs d'inférence.
Pour la plupart des équipes d'IA, il est presque impossible d'échapper à CUDA tant qu'elles utilisent des GPU NVIDIA. Même si le marché propose des GPU AMD, des TPU ou des puces développées en interne par des fournisseurs de cloud, chaque matériel est toujours associé à un logiciel propriétaire, ce qui pousse naturellement les développeurs à choisir CUDA, qui est le plus mature et dispose des outils les plus complets, créant ainsi une structure industrielle fortement verrouillée.
Un projet sans incitation devient plutôt un point de rupture.
Lattner a souligné que les logiciels d'IA portables inter-puces et inter-fournisseurs ne sont pas sans importance, mais qu'“aucun n'a suffisamment d'incitation à en supporter le coût”. Ce type de projet est extrêmement difficile, avec un long retour sur investissement, et on ne voit presque aucun résultat commercial à court terme, mais c'est une capacité que toute l'industrie désire ardemment.
C'est cette contradiction qui a conduit Modular à choisir d'investir tôt dans le développement à long terme de systèmes sous-jacents avant l'explosion de l'IA générative, et à éviter délibérément les feux de la rampe du marché durant les trois premières années suivant sa création.
Trois ans de travail discret, avec des fonds et une équipe progressivement en place.
À la date de 2025, Modular a levé environ 380 millions de dollars de fonds, avec des investisseurs comprenant plusieurs capital-risqueurs de premier plan de la Silicon Valley. Après avoir terminé son dernier tour de financement en septembre 2025, la valorisation de l'entreprise est d'environ 1,6 milliard de dollars.
Ces ressources permettent à Modular de recruter des ingénieurs seniors de Google et d'Apple, formant une équipe axée sur les compilateurs, les logiciels système et l'infrastructure AI, afin de peaufiner l'ensemble de la pile logicielle.
Architecture logicielle en trois couches, du langage au cluster de puissance de calcul
Le cœur technologique de Modular est composé de trois couches, à savoir :
Niveau supérieur : pour Mammoth, utilisé pour aider les entreprises à gérer et à orchestrer la puissance de calcul dans des environnements multi-GPU et multi-fournisseurs, résolvant ainsi les problèmes de déploiement et de maintenance.
Couche intermédiaire : moteur d'inférence MAX, responsable de l'exécution réelle du modèle, prenant en charge NVIDIA, AMD et Apple Silicon.
Couche la plus basse : pour le langage de programmation Mojo, la syntaxe est proche de Python et les performances sont proches de C++, pouvant s'intégrer avec les principaux frameworks d'IA.
2025 validation clé, la couche de calcul unifiée est officiellement formée
En septembre 2025, Modular a annoncé les résultats clés des tests, démontrant des performances de pointe en faisant fonctionner simultanément le NVIDIA Blackwell B200 et l'AMD MI355X sur la même plateforme logicielle, l'MI355X affichant même une amélioration d'environ 50 % par rapport aux logiciels natifs d'AMD.
Ensuite, le 22/12, la Modular Platform 25.6 a été officiellement lancée, prenant en charge pleinement les GPU pour centres de données et de consommation, et permettant pour la première fois à Mojo de prendre en charge directement Apple Silicon. L'officiel a décrit cela comme « Écrire une fois, exécuter partout », c'est-à-dire :
« Les développeurs peuvent écrire leur code en Mojo sans avoir à créer une version distincte pour NVIDIA, AMD ou Apple Silicon ; un seul et même programme peut s'exécuter sur différents GPU et matériels de différents fournisseurs. »
Symbole d'unité, la couche de calcul AI passe du concept à la réalisation pratique.
Cet article défie le monopole des logiciels d'IA de NVIDIA ! Modular crée une plateforme d'IA intégrée multiplateforme pour rivaliser avec CUDA, apparue pour la première fois dans Chain News ABMedia.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Défi à l'hégémonie des logiciels d'IA de NVIDIA ! Modular crée une plateforme d'IA intégrée multi-matériel pour rivaliser avec CUDA
À l'heure où l'IA générative envahit le monde, presque tous les LLM, services cloud et startups en IA reposent sur la même infrastructure clé, à savoir l'écosystème logiciel CUDA de NVIDIA (. Cette architecture logicielle, à l'origine conçue pour les cartes graphiques, s'est progressivement étendue au cours des deux dernières décennies pour devenir le « système d'exploitation invisible » qui fait fonctionner l'industrie de l'IA.
La startup Modular, fondée en 2022, tente de défier directement cette structure hautement centralisée et dominée par un seul fournisseur. L'objectif de Modular n'est pas de créer une nouvelle puce, mais de construire une “plateforme de pile logicielle AI portable” permettant aux modèles AI de se déplacer librement entre différents GPU et accélérateurs, sans être verrouillés dans l'écosystème de NVIDIA et CUDA.
Point de départ de l'entrepreneuriat en 2022, les ingénieurs de base s'attaquent directement au noyau CUDA.
Modular a été fondé en 2022 par deux ingénieurs logiciels de base venant d'Apple et de Google. Le PDG Chris Lattner a créé Swift et l'architecture du compilateur LLVM, tandis que le co-fondateur Tim Davis a participé à l'architecture logicielle clé du TPU de Google.
Les deux personnes ont vécu personnellement le processus par lequel le nouveau matériel « ouvre le marché grâce au logiciel », c'est pourquoi elles ont choisi de quitter de grandes entreprises technologiques pour défier directement la domination des logiciels d'IA représentée par CUDA. Cette guerre asymétrique est presque considérée comme folle dans l'industrie, mais c'est aussi en raison de leur compréhension approfondie des couches sous-jacentes du système qu'elles sont vues comme l'une des rares équipes ayant une chance d'essayer.
CUDA difficile à remplacer, les chaînes structurelles de l'industrie AI
CUDA était à l'origine un outil permettant de programmer les cartes graphiques, mais avec l'essor de l'apprentissage profond, il s'est progressivement élargi pour couvrir un écosystème complet comprenant des langages, des bibliothèques, des compilateurs et des moteurs d'inférence.
Pour la plupart des équipes d'IA, il est presque impossible d'échapper à CUDA tant qu'elles utilisent des GPU NVIDIA. Même si le marché propose des GPU AMD, des TPU ou des puces développées en interne par des fournisseurs de cloud, chaque matériel est toujours associé à un logiciel propriétaire, ce qui pousse naturellement les développeurs à choisir CUDA, qui est le plus mature et dispose des outils les plus complets, créant ainsi une structure industrielle fortement verrouillée.
Un projet sans incitation devient plutôt un point de rupture.
Lattner a souligné que les logiciels d'IA portables inter-puces et inter-fournisseurs ne sont pas sans importance, mais qu'“aucun n'a suffisamment d'incitation à en supporter le coût”. Ce type de projet est extrêmement difficile, avec un long retour sur investissement, et on ne voit presque aucun résultat commercial à court terme, mais c'est une capacité que toute l'industrie désire ardemment.
C'est cette contradiction qui a conduit Modular à choisir d'investir tôt dans le développement à long terme de systèmes sous-jacents avant l'explosion de l'IA générative, et à éviter délibérément les feux de la rampe du marché durant les trois premières années suivant sa création.
Trois ans de travail discret, avec des fonds et une équipe progressivement en place.
À la date de 2025, Modular a levé environ 380 millions de dollars de fonds, avec des investisseurs comprenant plusieurs capital-risqueurs de premier plan de la Silicon Valley. Après avoir terminé son dernier tour de financement en septembre 2025, la valorisation de l'entreprise est d'environ 1,6 milliard de dollars.
Ces ressources permettent à Modular de recruter des ingénieurs seniors de Google et d'Apple, formant une équipe axée sur les compilateurs, les logiciels système et l'infrastructure AI, afin de peaufiner l'ensemble de la pile logicielle.
Architecture logicielle en trois couches, du langage au cluster de puissance de calcul
Le cœur technologique de Modular est composé de trois couches, à savoir :
Niveau supérieur : pour Mammoth, utilisé pour aider les entreprises à gérer et à orchestrer la puissance de calcul dans des environnements multi-GPU et multi-fournisseurs, résolvant ainsi les problèmes de déploiement et de maintenance.
Couche intermédiaire : moteur d'inférence MAX, responsable de l'exécution réelle du modèle, prenant en charge NVIDIA, AMD et Apple Silicon.
Couche la plus basse : pour le langage de programmation Mojo, la syntaxe est proche de Python et les performances sont proches de C++, pouvant s'intégrer avec les principaux frameworks d'IA.
2025 validation clé, la couche de calcul unifiée est officiellement formée
En septembre 2025, Modular a annoncé les résultats clés des tests, démontrant des performances de pointe en faisant fonctionner simultanément le NVIDIA Blackwell B200 et l'AMD MI355X sur la même plateforme logicielle, l'MI355X affichant même une amélioration d'environ 50 % par rapport aux logiciels natifs d'AMD.
Ensuite, le 22/12, la Modular Platform 25.6 a été officiellement lancée, prenant en charge pleinement les GPU pour centres de données et de consommation, et permettant pour la première fois à Mojo de prendre en charge directement Apple Silicon. L'officiel a décrit cela comme « Écrire une fois, exécuter partout », c'est-à-dire :
« Les développeurs peuvent écrire leur code en Mojo sans avoir à créer une version distincte pour NVIDIA, AMD ou Apple Silicon ; un seul et même programme peut s'exécuter sur différents GPU et matériels de différents fournisseurs. »
Symbole d'unité, la couche de calcul AI passe du concept à la réalisation pratique.
Cet article défie le monopole des logiciels d'IA de NVIDIA ! Modular crée une plateforme d'IA intégrée multiplateforme pour rivaliser avec CUDA, apparue pour la première fois dans Chain News ABMedia.