RL

Prix Ralph Lauren Corp

Fermer
RL
€303,30
-€6,35(-2,05 %)

*Données dernièrement actualisées : 2026-05-05 00:50 (UTC+8)

Au 2026-05-05 00:50, Ralph Lauren Corp (RL) est coté à €303,30, avec une capitalisation boursière totale de €18,36B, un ratio cours/bénéfices (P/E) de 18,17 et un rendement du dividende de 1,03 %. Aujourd'hui, le cours de l'action a fluctué entre €299,00 et €313,99. Le prix actuel est de 1,36 % au-dessus du plus bas de la journée et de 3,40 % en dessous du plus haut de la journée, avec un volume de trading de 446,93K. Au cours des 52 dernières semaines, RL a évolué entre €299,21 et €330,64, et le prix actuel est à -8,27 % de son plus haut sur 52 semaines.

Statistiques clés de RL

Clôture d’hier€309,65
Capitalisation du marché€18,36B
Volume446,93K
Ratio P/E18,17
Rendement des dividendes (TTM)1,03 %
Montant du dividende€0,78
BPA dilué (TTM)15,03
Revenu net (exercice fiscal)€635,10M
Revenus (exercice annuel)€6,05B
Date de gains2026-05-21
Estimation BPS2,46
Estimation des revenus€1,57B
Actions en circulation59,31M
Bêta (1 an)1.479
Date d'ex-dividende2026-03-27
Date de paiement des dividendes2026-04-10

À propos de RL

Ralph Lauren Corporation conçoit, commercialise et distribue des produits de style de vie en Amérique du Nord, en Europe, en Asie et à l'international. La société propose des vêtements, notamment une gamme de vêtements pour hommes, femmes et enfants ; des chaussures et des accessoires, comprenant des chaussures décontractées, des chaussures de ville, des bottes, des baskets, des sandales, des lunettes, des montres, des bijoux de mode et de haute joaillerie, des écharpes, des chapeaux, des gants et des parapluies, ainsi que des articles en cuir, tels que des sacs à main, des bagages, des petits articles en cuir et des ceintures ; des produits pour la maison comprenant des lignes de literie et de bain, des meubles, des tissus et des revêtements muraux, des luminaires, de la vaisselle, des linges de cuisine, des revêtements de sol et des articles de décoration ; et des parfums. Elle vend des vêtements et des accessoires sous les marques Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children et Chaps ; des parfums pour femmes sous les noms Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection et Ralph Collection ; et des parfums pour hommes sous les noms Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport et Big Pony Men's. La collection de restaurants de la société comprend The Polo Bar à New York ; RL Restaurant à Chicago ; Ralph's à Paris ; The Bar at Ralph Lauren à Milan ; et le concept Ralph's Coffee. Elle vend ses produits aux grands magasins, magasins spécialisés, boutiques de golf et boutiques professionnelles, ainsi qu'aux consommateurs directement via ses magasins de détail, ses boutiques concessions, et ses sites de commerce numérique. La société exploite directement 504 magasins de détail et 684 boutiques concessions ; et gère 175 magasins Ralph Lauren, 329 magasins d'usine et 148 magasins et boutiques via des partenaires sous licence. Ralph Lauren Corporation a été fondée en 1967 et a son siège à New York, New York.
SecteurCycleux des consommateurs
IndustrieVêtements - Fabricants
PDGPatrice Jean Louis Louvet
Siège socialNew York City,NY,US
Effectifs (exercice annuel)23,40K
Revenu moyen (1 an)€258,62K
Revenu net par employé€27,14K

FAQ de Ralph Lauren Corp (RL)

Quel est le cours de l'action Ralph Lauren Corp (RL) aujourd'hui ?

x
Ralph Lauren Corp (RL) s’échange actuellement à €303,30, avec une variation sur 24 h de -2,05 %. La fourchette de cotation sur 52 semaines est de €299,21 à €330,64.

Quels sont les prix le plus haut et le plus bas sur 52 semaines pour Ralph Lauren Corp (RL) ?

x

Quel est le ratio cours/bénéfice (P/E) de Ralph Lauren Corp (RL) ? Que signifie-t-il ?

x

Quelle est la capitalisation boursière de Ralph Lauren Corp (RL) ?

x

Quel est le bénéfice par action (EPS) trimestriel le plus récent pour Ralph Lauren Corp (RL) ?

x

Faut-il acheter ou vendre Ralph Lauren Corp (RL) maintenant ?

x

Quels sont les facteurs pouvant influencer le cours de l’action Ralph Lauren Corp (RL) ?

x

Comment acheter l'action Ralph Lauren Corp (RL) ?

x

Avertissement sur les risques

Le marché boursier comporte un niveau élevé de risque et de volatilité des prix. La valeur de votre investissement peut augmenter ou diminuer, et vous pourriez ne pas récupérer le montant investi au complet. Les performances passées ne constituent pas un indicateur fiable des résultats futurs. Avant de prendre toute décision d’investissement, vous devez évaluer soigneusement votre expérience en matière d’investissement, votre situation financière, vos objectifs d’investissement et votre tolérance au risque, et effectuer vos propres recherches. Le cas échéant, consultez un conseiller financier indépendant.

Avertissement

Le contenu de cette page est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement, un conseil financier ou une recommandation de trading. Gate ne pourra être tenu responsable de toute perte ou dommage résultant de telles décisions financières. De plus, veuillez noter que Gate pourrait ne pas être en mesure de fournir un service complet dans certains marchés et juridictions, notamment, mais sans s’y limiter, les États-Unis d’Amérique, le Canada, l’Iran et Cuba. Pour plus d’informations sur les zones restreintes, veuillez consulter les conditions d’utilisation.

Autres Marchés de Trading

Ralph Lauren Corp (RL) Dernières Actualités

2026-04-23 04:54

Perplexity révèle sa méthode de post-formation pour des agents de recherche web ; le modèle basé sur Qwen3.5 surpasse GPT-5.4 en précision et en coût

Publier le message d’actualité, 23 avril — L’équipe de recherche de Perplexity a publié un article technique décrivant sa méthodologie de post-formation pour les agents de recherche web. L’approche utilise deux modèles open source Qwen3.5 (Qwen3.5-122B-A10B et Qwen3.5-397B-A17B) et met en œuvre un pipeline en deux étapes : un fine-tuning supervisé (SFT) pour établir le respect des instructions et la cohérence linguistique, suivi d’un apprentissage par renforcement en ligne (RL) pour optimiser la précision de recherche et l’efficacité d’utilisation des outils. La phase RL tire parti de l’algorithme GRPO avec deux sources de données : un jeu de données interne propriétaire vérifiable de questions-réponses multi-étapes construit à partir de requêtes de départ nécessitant 2 à 4 étapes de raisonnement avec vérification par plusieurs solveurs, et des données conversationnelles générales basées sur des grilles d’évaluation qui transforment les exigences de déploiement en conditions atomiques objectivement vérifiables afin de prévenir la dégradation du comportement de la SFT. La conception des récompenses emploie une agrégation filtrée — les scores de préférence ne contribuent que lorsque la correction de base est atteinte (correspondance question-réponse de base) ou lorsque toutes les conditions de grille d’évaluation sont satisfaites (, empêchant des signaux de préférence élevés de masquer des erreurs factuelles. Les pénalités d’efficacité utilisent un ancrage au sein du groupe, en appliquant des pénalités progressives aux appels d’outils et à la longueur de génération dépassant la référence des réponses correctes dans le même groupe. L’évaluation montre que Qwen3.5-397B-SFT-RL atteint les meilleures performances de sa catégorie sur des bancs d’essai de recherche. Sur FRAMES, il atteint 57,3 % d’exactitude avec un seul appel d’outil, dépassant GPT-5.4 de 5,7 points de pourcentage et Claude Sonnet 4.6 de 4,7 points de pourcentage. Dans un budget modéré )quatre appels d’outils, il obtient 73,9 % d’exactitude à 0,02 $ par requête, contre 67,8 % d’exactitude pour GPT-5.4 à 0,085 $ par requête et 62,4 % d’exactitude pour Sonnet 4.6 à 0,153 $ par requête. Les chiffres de coût reposent sur la tarification API publique de chaque fournisseur et excluent les optimisations de mise en cache.

2026-03-21 00:19

Cursor a confirmé officiellement que Kimi K2.5 est la base, La Face Cachée de la Lune : partenariat commercial autorisé

Gate News, le 21 mars, selon la surveillance de 1M AI News, le compte officiel de Moon of Darkness @Kimi_Moonshot a publié un message pour féliciter Cursor de la sortie de Composer 2, et a expliqué que Cursor accédait à Kimi K2.5 via la plateforme d'inférence et de RL hébergée par Fireworks AI, dans le cadre d'une coopération commerciale autorisée. Le co-fondateur de Cursor, Aman Sanger, et le vice-président de l'éducation des développeurs, Lee Robinson, ont ensuite confirmé publiquement l'origine de la base et divulgué des détails techniques. Sanger a indiqué que l'équipe avait évalué la perplexité de plusieurs bases, et que Kimi K2.5 « s'avérait être la plus performante », puis avait poursuivi un pré-entraînement supplémentaire et une reinforcement learning à 4 fois l'échelle avec une puissance de calcul élevée, déployée via le sampler d'inférence et de RL de Fireworks AI. Robinson a ajouté que, dans le modèle final, environ un quart de la puissance de calcul provenait de la base, le reste, soit trois quarts, provenant de l'entraînement propre de Cursor. Les deux fondateurs ont reconnu qu'il s'agissait d'une « erreur » de ne pas avoir mentionné la source de la base lors de la publication du blog, et ont promis que lors du prochain lancement de modèle, ils indiqueront immédiatement la provenance de la base. Auparavant, Elon Musk avait répondu sous un post de discussion pertinent : « Ouais, c'est Kimi 2.5 », ce qui a encore amplifié la popularité du sujet.

2026-03-20 09:47

Cursor Composer 2 aurait utilisé le modèle Kimi K2.5, et Moonshot AI l'accuse de non-respect de la licence

Gate News rapporte que, le 20 mars, selon la surveillance de 1M AI News, le développeur @fynnso a découvert lors du débogage de la requête API de Cursor que l’ID du modèle réel de Composer 2 était kimi-k2p5-rl-0317-s515-fast, ce qui signifie « Kimi K2.5 + RL ». Le responsable de la pré-formation de Moonshot AI, Du Yulun, a immédiatement publié un tweet indiquant qu’après avoir testé le tokenizer de Composer 2, ils avaient constaté qu’il était « totalement identique à notre tokenizer Kimi », et qu’« il est presque certain que notre modèle a été soumis à une formation supplémentaire », en mentionnant directement le co-fondateur de Cursor, Michael Truell, pour lui demander « pourquoi ne pas respecter notre licence et ne pas avoir payé de frais ». Lors de la sortie de Composer 2 le 19 mars, Cursor a déclaré que l’amélioration des performances provenait d’un « pré-entraînement continu du modèle de base, combiné à un apprentissage par renforcement », mais n’a jamais mentionné Kimi K2.5. Kimi K2.5 utilise une version modifiée de la licence MIT, qui stipule clairement que tout produit commercial ayant plus de 100 millions d’utilisateurs actifs par mois ou plus de 20 millions de dollars de revenus mensuels doit afficher de manière visible « Kimi K2.5 » dans l’interface utilisateur. Avec une valorisation de Cursor à 29,3 milliards de dollars et une base d’utilisateurs payants, le seuil de revenus mensuels est presque inévitablement dépassé. À la date de publication, Cursor n’a pas répondu publiquement.

2026-02-12 14:21

Gradient lance le cadre d'apprentissage par renforcement distribué Echo-2, et prévoit de lancer la plateforme RLaaS Logits

Foresight News : le laboratoire d'IA distribuée Gradient a publié Echo-2, un cadre d'apprentissage par renforcement distribué, visant à briser les barrières d'efficacité dans la recherche et l'entraînement en IA. Ce cadre décore la séparation entre Learner et Actor au niveau de l'architecture, dans le but de réduire les coûts de post-entraînement des grands modèles. Selon les données officielles, ce cadre peut réduire le coût de post-entraînement d'un modèle 30B de 4500 dollars à 425 dollars. Echo-2 utilise la technologie de séparation stockage-calcul pour un entraînement asynchrone (Async RL), supportant le déchargement de la puissance de sampling vers des instances de GPU instables et des GPU hétérogènes basés sur Parallax. Ce cadre, associé à des techniques telles que la tolérance à l'obsolescence limitée, la planification tolérante aux erreurs d'instance et le protocole de communication Lattica développé en interne, améliore l'efficacité de l'entraînement tout en maintenant la précision du modèle. De plus, Gradient prévoit de lancer la plateforme RLaaS (Renforcement par Apprentissage en tant que Service) Logits, qui est actuellement ouverte aux réservations pour les étudiants et chercheurs.

2026-01-02 09:15

Mechanism Capital partenaire : la taille des données AI concrètes atteindra 100 fois en 2026

PANews a rapporté le 2 janvier qu’Andrew Kang, associé chez Mechanism Capital, a publié sur la plateforme X qu’en 2025, le domaine de la robotique résoudra des défis anciens liés à l’architecture et à l’entraînement des modèles, et réalisera des progrès significatifs dans la technologie de collecte de données, la compréhension de la qualité des données et la formulation des données, donnant aux entreprises d’intelligence artificielle la confiance qu’elles commenceront à investir dans la collecte de données à grande échelle, et que des entreprises comme Figure, Dyna et PI utiliseront l’apprentissage par renforcement (RL) La technologie innovante a atteint un taux de réussite de plus de 99 % dans divers scénarios d’applications pratiques. De plus, les avancées de la technologie mémoire ont brisé le « mur de mémoire », le ReMEmber de NVIDIA utilise une navigation basée sur la mémoire, les Titans et MIRAS obtiennent une mémoire en temps de test, et de meilleurs modèles de positionnement virtuel (VLM) signifient que les réseaux de positionnement virtuel (VLA) disposent de meilleures capacités de compréhension spatiale, ainsi que de processus d’annotation et de traitement des données pouvant grandement améliorer le débit. En 2025, le marché appréciera initialement la cartographie zéro tir, la sensibilité à la puissance visuelle et le raisonnement physique général générés par l’échelle des données, et l’échelle des données physiques d’IA sera 100 fois multipliée par 2026.

Publications populaires sur Ralph Lauren Corp (RL)

ChainNewsAbmedia

ChainNewsAbmedia

Il y a 11 heures
Le cofondateur d’OpenAI et ancien directeur de l’IA chez Tesla, Andrej Karpathy, a publié sur X un long billet sur « l’écart de perception des capacités de l’IA », en réponse à un phénomène observé dans la communauté : la fascination pour l’IA est très polarisée — d’un côté, des personnes estiment que l’IA a déjà réécrit le monde ; de l’autre, d’autres pensent que l’IA ne fait que halluciner, ennuie et a été trop encensée. Karpathy avance deux diagnostics et explique pourquoi ces deux groupes vivent en quelque sorte dans des « mondes parallèles », se méprenant mutuellement sur la base de leurs critères de jugement. Cet article synthétise ses propos et ce que cela implique pour les lecteurs technophiles à Taïwan. Diagnostic 1 : de quelle année et de quel « niveau » d’IA s’agit-il que vous utilisez ? La première observation de Karpathy est directe et tranchante : « Beaucoup de gens ont essayé l’édition gratuite de ChatGPT l’an dernier, et cette expérience a dominé leur perception de l’IA. » En général, ce groupe réagit en se moquant des réponses bizarres du modèle, des hallucinations, de la maladresse, et en partageant des vidéos où l’utilisation du mode voix avancé d’OpenAI — « je dois aller laver la voiture en voiture ou à pied » — fait complètement planter le sujet, sur une question simpliste. Mais Karpathy souligne : ces modèles « version gratuite », « ancienne version », « abandonnée », ne reflètent pas les capacités des modèles agentic les plus avancés en 2026 (en particulier OpenAI Codex et Claude Code). En clair : utiliser ChatGPT gratuit de 2024 pour juger si l’IA sait programmer, c’est comme juger un smartphone avec un Nokia E71 de 2008. Pour beaucoup de lecteurs à Taïwan, c’est aussi une réalité : s’abonner à ChatGPT Plus (20 dollars) reste plutôt courant, mais très peu de personnes s’abonnent à ChatGPT Pro (200 dollars) ou à Claude Max (100 dollars). Ceux qui n’ont jamais fait tourner des tâches agentic sur les formules payantes les plus avancées voient surtout l’IA comme « amusante mais peu fiable » ; ceux qui ont testé, la voient comme « une réécriture complète des workflows de travail ». La même technologie, deux univers différents. Diagnostic 2 : les progrès des capacités sont « asymétriques » selon les domaines Le deuxième diagnostic de Karpathy est encore plus intéressant : « Même si vous payez 200 dollars par mois pour utiliser les modèles les plus avancés, les progrès des capacités sont “en pics”, concentrés sur des domaines hautement techniques. » Il explique que la recherche, la rédaction, les recommandations — bref, des requêtes typiques — ne sont pas les domaines où l’IA a le plus progressé ces dernières années. Deux raisons : Le renforcement par apprentissage (RL) dépend de fonctions de récompense vérifiables : pour programmer, il y a un signal clair du type « tests unitaires passés », alors que l’écriture n’a pas de critères objectifs équivalents ; l’écart de vitesse de progrès du RL est donc très important La plus grande valeur commerciale d’OpenAI, d’Anthropic et d’autres sociétés se trouve dans des scénarios B2B de code / recherche / ingénierie, donc les ressources, l’effectif et les priorités se concentrent sur ces domaines ; d’autres cas d’usage ne sont pas la source de profit la plus importante Cette observation est essentielle : elle explique pourquoi « les capacités d’écriture de code progressent spectaculairement, mais l’écriture d’articles reste souvent assez banale » — un mystère qui laisse beaucoup de gens perplexes. Ce n’est pas que les entreprises d’IA ne peuvent pas le faire : leur « mine d’or » se trouve ailleurs, et l’attention y a été redirigée. Qui subit le plus le « choc cognitif » de l’IA ? Deux conditions réunies En combinant les deux diagnostics, Karpathy décrit le groupe qui est le plus susceptible d’être frappé par le choc cognitif de l’IA — celui qui remplit simultanément deux conditions : Utiliser des modèles agentic les plus avancés en version payante (OpenAI Codex, Claude Code) Utiliser la spécialisation dans des domaines hautement techniques (programmation, mathématiques, recherche) Ces personnes sont les plus touchées par ce qu’on appelle le « AI Psychosis » — un terme utilisé par Karpathy pour décrire ce que vous ressentez quand, sous vos yeux, un LLM résout en quelques heures un problème de programmation qui aurait autrement demandé plusieurs jours à plusieurs semaines : ce jugement sur les capacités et la pente (slope) vous amène alors à avoir une vision radicalement différente de la configuration technologique des prochaines années. Pour l’autre groupe (qui ne paye pas et n’utilise pas l’IA dans des contextes techniques), ce genre de discours ressemble à de l’« enthousiasme excessif », comme un mythe de cercle fermé propre à la Silicon Valley. Mais, pour Karpathy, ce n’est pas un mythe : c’est un jugement issu d’une expérience vécue. Deux groupes « parlent de leurs mondes à eux » La conclusion centrale de Karpathy : « Ces deux groupes se parlent entre eux, mais ne parlent pas avec l’autre. » Il décrit deux choses qui peuvent être vraies en même temps : Le mode voix avancé gratuit d’OpenAI (et, selon moi, à moitié abandonné), qui fait échouer les questions les plus bêtes sur Instagram Reels En parallèle, les modèles Codex au plus haut niveau payant d’OpenAI, qui consacrent 1 heure pour restructurer de bout en bout un codebase complet, ou trouver et exploiter des failles du système informatique Les deux choses sont vraies et ne s’excluent pas. Mais chaque groupe ne voit que sa moitié, puis en vient à juger l’autre comme « trop emballé » ou « trop ignorant ». L’objectif du billet de Karpathy est précisément de combler ce fossé. Ce que cela implique pour les lecteurs à Taïwan : à quel groupe appartenez-vous ? Le raisonnement de Karpathy est particulièrement pertinent pour les lecteurs à Taïwan, car sur le plan des discours tech, Taïwan connaît aussi une polarisation : d’un côté, « l’IA a déjà pris le contrôle » ; de l’autre, « ce n’est qu’un chatbot ». Pour déterminer à quel groupe vous appartenez, vous pouvez vous poser 3 questions : Depuis quand date votre dernière fois où vous avez mis un prompt à un modèle payant de pointe (GPT-5.5 Pro, Claude Opus 4.7) ? Avez-vous déjà fait tourner un agent pendant plus de 30 minutes, jusqu’à accomplir réellement une tâche de niveau production (refondre du code, rédiger une synthèse de recherche, debugger un système complexe) ? Sur quoi fondez-vous votre jugement sur les capacités de l’IA : des reportages médiatiques, des mèmes de réseau social, ou une utilisation personnelle ? Si vous répondez « oui, récemment, usage personnel » aux trois questions, vous vous reconnaîtrez dans le deuxième groupe décrit par Karpathy, et vous comprendrez plus facilement son interprétation du « AI Psychosis ». Si vous répondez « non, il y a longtemps, vu dans les médias » aux trois questions, vous risquez d’être dans le premier groupe, et donc de sous-estimer fortement la vitesse des progrès de l’IA. Ce n’est pas une question de savoir quel groupe a « raison », mais plutôt que les critères de jugement sont fondamentalement différents. Quand vous verrez le prochain article « l’IA est une bulle » ou « l’IA va remplacer tous les emplois », vérifiez d’abord à quel groupe l’auteur appartient, puis décidez comment le lire. Ajout : le « moment OpenClaw » selon Karpathy Dans des publications ultérieures, Karpathy précise : « Quelqu’un m’a récemment dit que si le moment OpenClaw est si important, c’est parce qu’il s’agit d’un grand groupe de personnes sans bagage technique, qui font, pour la première fois, l’expérience directe d’un agentic model avancé. » Cette observation montre que l’écart cognitif n’est pas seulement un écart de « degré », mais aussi un écart entre « expérience vécue » et « ouï-dire ». Pour les lecteurs d’abmedia, la solution la plus pratique est la suivante : prenez 20 dollars, abonnez-vous pendant 1 mois à ChatGPT Plus ou Claude Pro, choisissez une vraie tâche qui vous intéresse (écrire un rapport de recherche, rassembler une analyse financière, debugger un projet de programmation), exécutez l’agent jusqu’au bout, puis revenez pour juger l’importance de l’IA pour votre travail. C’est plus utile que de lire 100 articles sur l’IA. Pourquoi certaines personnes pensent que l’IA change le monde, et d’autres qu’elle est banale ? Les deux diagnostics de Karpathy apparaissent d’abord sur la chaîne ABMedia.
0
0
0
0
ChainNewsAbmedia

ChainNewsAbmedia

05-02 05:48
L’équipe de recherche de l’université de Californie à Berkeley propose une nouvelle méthode d’entraînement pour l’IA : GEPA, déjà acceptée par l’ICLR 2026 en tant qu’article Oral. GEPA ne met pas à jour les poids du modèle, ne nécessite pas d’entraînement sur GPU : il suffit d’utiliser un LLM qui « lit un journal d’entraînement » et réécrit à répétition les invites du système d’IA. Résultat : sur 6 tâches, GEPA surpasse en moyenne les méthodes d’apprentissage par renforcement dominantes de 6 %, avec un meilleur score jusqu’à 20 %, et avec un nombre d’essais d’entraînement (rollouts) inférieur de 35 fois. Après avoir été synthétisée par la communauté d’ingénierie IA, la méthode a suscité des discussions sur la plateforme X ; elle a désormais été intégrée à DSPy en tant qu’optimiseur de premier rang. Ce que fait GEPA : utiliser les journaux d’entraînement comme support, au lieu de ne regarder que les scores Le workflow des méthodes d’apprentissage par renforcement traditionnelles (comme GRPO) est le suivant : faire exécuter une fois une tâche à l’IA, obtenir un score « +1 ou -1 » en fonction du résultat, puis ajuster en boucle les poids du modèle à partir de ce score. Le problème, c’est que le déroulé de cette exécution d’une tâche comporte souvent des étapes de raisonnement de plusieurs milliers de tokens, des appels d’outils, des messages d’erreur : ces détails riches sont compressés en un seul score, et l’information du processus est perdue. Ainsi, le RL doit être lancé des dizaines de milliers, voire des dizaines de milliers de fois, pour converger. La démarche de GEPA est l’inverse : une fois la tâche terminée, l’IA transmet l’intégralité du processus (reasoning, appels d’outils, historique d’erreurs) à un autre « LLM de réflexion » qui le lit tel quel. Le LLM de réflexion agit comme un ingénieur chevronné lisant un log de programme : il repère l’étape où ça s’est mal passé, pourquoi cela a échoué, et comment modifier l’invite, puis réécrit directement l’invite du module concerné. À exécution identique de la tâche, la quantité de signaux extraite par GEPA est bien plus grande que celle fournie par le seul score de RL. Pourquoi ça marche : transformer le « score » en « lecture de tout le processus » Sur 6 tâches, GEPA obtient en moyenne un avantage de 6 % sur GRPO, avec un maximum de 20 % ; face à un autre optimiseur d’invites dominant, MIPROv2, il dépasse aussi de plus de 10 % (avec une progression de 12 % sur le benchmark de maths AIME-2025). Le point le plus crucial est le coût d’entraînement : pour atteindre des performances comparables, GEPA a besoin de rollouts (un passage complet sur une tâche) inférieurs de 35 fois. Une autre donnée : après l’intégration de GEPA avec DSPy, le « Full Program Adapter » permet d’optimiser l’ensemble du programme DSPy (y compris les signatures, les modules, la structure de contrôle). Sur le benchmark MATH, GEPA atteint 93 % de précision, bien au-delà de la méthode ChainOfThought initiale de DSPy (67 %). GEPA excelle aussi particulièrement sur des workflows multi-modules (agents IA chaînés sur plusieurs modules) : il peut cibler précisément un module qui échoue et réécrire son invite, plutôt que d’ajuster tout le système. Qui va s’en servir en premier : un citoyen de première classe dans DSPy, code déjà open source sur GitHub Le code de GEPA a été publié sur GitHub. Il est intégré au framework DSPy sous la forme de dspy.GEPA, et publié aussi de manière indépendante en tant que bibliothèque Python. L’équipe de recherche regroupe des institutions comme UC Berkeley, Stanford, Notre Dame et Anthropic. Les auteurs du papier comprennent Matei Zaharia (cofondateur de Databricks, auteur principal de DSPy) et Omar Khattab (auteur principal de DSPy). Pour la communauté des développeurs, GEPA apporte une nouvelle solution à un problème courant : avoir énormément de rollouts mais ne pas savoir comment les exploiter. Beaucoup d’équipes ont déjà accumulé des milliers, voire des dizaines de milliers, de journaux d’exécution d’agents, mais au-delà de quelques vérifications quand ça bug, elles n’ont pas de méthode systématique pour transformer ces journaux en amélioration du modèle. Le prochain point à observer est l’adoption concrète de GEPA dans les workflows agentiques en entreprise (comme l’automatisation du support client et la réparation automatique de code), et de savoir si des implémentations de GEPA apparaîtront en dehors du cadre DSPy. Cet article « Berkeley GEPA » : sans mise à jour des poids, l’IA apprend de nouvelles tâches, et avec 35 fois moins de coût d’entraînement, devance le RL—la première apparition de l’article remonte à Chaîne News ABMedia.
0
0
0
0