Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
F5 Et NVIDIA Font Progresser L'Économie Des Usines IA Avec De Nouvelles Capacités Pour L'Inférence IA Accélérée
(MENAFN- Asdaf News) ** Dubai – Asdaf News:**
F5 (NASDAQ: FFIV), le leader mondial dans la livraison et la sécurisation de chaque application et API, a annoncé aujourd’hui des capacités élargies dans le cadre de sa collaboration continue.
L’intégration étendue combine F5 BIG-IP Next pour Kubernetes.
Dans les systèmes d’IA, les tokens représentent l’unité mesurable de sortie de l’IA — les mots, symboles ou fragments de données générés et traités lors de l’inférence. Le volume et la vitesse de production des tokens déterminent en fin de compte l’expérience utilisateur, l’efficacité de l’infrastructure et le revenu par accélérateur.
Alors que les entreprises et les fournisseurs GPUaaS cherchent à monétiser l’IA et à passer de l’expérimentation à des services générateurs de revenus, l’efficacité de l’infrastructure devient une métrique clé. Le succès n’est plus simplement mesuré par la capacité GPU déployée, mais par l’économie des tokens, le débit soutenu, le temps jusqu’au premier token (TTFT), le coût par token et le revenu par GPU accélérateur. La solution conjointe F5 et NVIDIA vise à répondre directement à ces métriques.
** Optimisation de la tokenomique via une infrastructure IA intelligente**
Le passage d’une inférence centrée sur l’application à des flux de travail IA pilotés par des agents nécessite de nouvelles approches architecturales pour optimiser le débit des tokens et réduire les coûts. BIG-IP Next pour Kubernetes exploite désormais les statistiques NIM de NVIDIA, les signaux Dynamo runtime et la télémétrie GPU pour prendre des décisions de routage conscientes de l’inférence avant l’exécution. En associant en temps réel les charges de travail aux accélérateurs les plus appropriés, la solution augmente le taux d’utilisation soutenu tout en réduisant la latence et la recomputation.
« L’infrastructure IA ne se limite plus à l’accès au GPU ou à l’extension de leurs déploiements. Elle consiste désormais à maximiser la production économique par accélérateur », a déclaré Kunal Anand, Chief Product Officer, F5. « En collaboration avec NVIDIA, nous permettons aux usines d’IA de considérer la production de tokens comme une métrique commerciale mesurable. BIG-IP Next pour Kubernetes fournit l’intelligence et la gouvernance nécessaires pour augmenter le rendement GPU, réduire le coût par token et faire évoluer en toute confiance les plateformes d’IA partagées. »
** Efficacité de l’infrastructure validée : une amélioration structurelle**
Les chiffres de performance parlent d’eux-mêmes. Lors de tests validés par The Tolly Group, BIG-IP Next pour Kubernetes, accéléré par les DPU BlueField-3 de NVIDIA, a permis une augmentation jusqu’à 40 % du débit de tokens, un temps jusqu’au premier token (TTFT) 61 % plus rapide, et une réduction de 34 % de la latence globale des requêtes.
Il ne s’agit pas de gains marginaux. En déchargeant le réseau, le TLS/chiffrement, l’équilibrage de charge IA-aware et la gestion du trafic sur les DPU BlueField-3 de NVIDIA, BIG-IP Next pour Kubernetes préserve la capacité CPU de l’hôte et libère les GPU pour leur mission principale : l’inférence à haut débit et à grande échelle. Le résultat est une meilleure utilisation des GPU, une réduction des délais d’attente et une augmentation du rendement en tokens — permettant un coût par token inférieur dans une infrastructure fixe. Crucialement, aucune modification de modèle n’a été nécessaire, rendant ces gains immédiatement déployables sur l’infrastructure existante des usines d’IA. Pour les entreprises et les fournisseurs NeoCloud compétitifs sur l’économie des tokens, cela fait la différence entre une infrastructure qui limite la production d’IA et une infrastructure qui l’accélère.
« L’infrastructure de calcul accéléré de NVIDIA couplée à la plateforme F5 d’Application Delivery et de Sécurité consciente de l’IA libère une économie de tokens supérieure — offrant une inférence évolutive et rentable sans modifier les modèles », a déclaré Kevin Deierling, SVP, Réseaux, NVIDIA. « Ensemble, F5 et NVIDIA permettent aux entreprises de faire évoluer efficacement et économiquement l’inférence en usine d’IA. »
** Conçu pour l’IA pilotée par des agents et les plateformes multi-locataires**
Les charges de travail IA modernes sont de plus en plus pilotées par des agents, persistantes et contextuelles. Elles exigent un contrôle intelligent du trafic que la simple répartition de charge ne peut fournir. La solution améliorée BIG-IP Next pour Kubernetes peut désormais supporter :
Ces capacités permettent aux entreprises et aux fournisseurs NeoCloud de partager en toute sécurité l’infrastructure GPU entre unités commerciales ou clients externes tout en préservant l’isolation des performances et des niveaux de service prévisibles.
** Un plan de contrôle pour l’économie des usines d’IA**
F5 et NVIDIA fournissent aux entreprises des outils validés et des meilleures pratiques pour optimiser l’architecture d’inférence. Avec ces avancées, BIG-IP Next pour Kubernetes est positionné pour devenir un plan de contrôle stratégique pour l’économie des usines d’IA, régulant la consommation de tokens, optimisant les flux de trafic et maximisant le retour sur investissement de l’infrastructure.
Plutôt que de surprovisionner pour compenser les inefficacités, les organisations peuvent désormais tirer une valeur économique accrue de chaque GPU déjà en production. Le résultat : un revenu par GPU amélioré, une réduction des coûts opérationnels et des services IA évolutifs, conçus pour une croissance soutenue. En combinant la télémétrie d’infrastructure et l’accélération DPU de NVIDIA avec l’intelligence du trafic et les capacités de sécurité de F5, les entreprises transforment leurs usines d’IA en plateformes efficaces et monétisables, prêtes pour l’ère agentique.
** Matériel de soutien**
** Blog :** ** Les usines d’IA ont besoin d’une infrastructure intelligente. Les nouvelles résultats de The Tolly Group expliquent pourquoi.** ** Rapport :** ** Tests indépendants par Tolly : F5 BIG-IP Next pour Kubernetes**