*Données dernièrement actualisées : 2026-05-05 00:50 (UTC+8)
Au 2026-05-05 00:50, Ralph Lauren Corp (RL) est coté à €303,30, avec une capitalisation boursière totale de €18,36B, un ratio cours/bénéfices (P/E) de 18,17 et un rendement du dividende de 1,03 %. Aujourd'hui, le cours de l'action a fluctué entre €299,00 et €313,99. Le prix actuel est de 1,36 % au-dessus du plus bas de la journée et de 3,40 % en dessous du plus haut de la journée, avec un volume de trading de 446,93K. Au cours des 52 dernières semaines, RL a évolué entre €299,21 et €330,64, et le prix actuel est à -8,27 % de son plus haut sur 52 semaines.
Statistiques clés de RL
À propos de RL
En savoir plus sur Ralph Lauren Corp (RL)
Articles de Gate Learn
Qu'est-ce que l'AI Arena (NRN)
Une analyse complète de AI Arena : Ce jeu blockchain intégrant l'IA explore son gameplay central, son infrastructure, la fonctionnalité de son jeton natif $NRN, ainsi que les opportunités et les risques potentiels.
2025-01-07
Agents ARC : Redéfinir le jeu de l'IA
Cet article traite de la manière dont le projet ARC exploite l'intelligence artificielle pour aborder la question critique de la liquidité des joueurs dans les jeux indépendants et Web3 tout en explorant le développement d'ARC et le potentiel de son modèle économique
2024-12-10
Qu'est-ce que Aether Collective (AETHER)?
Focai est le premier agent IA 'immortel' construit sur le cadre focEliza. Son objectif est de réaliser un agent intelligent entièrement sur chaîne, lui permettant de fonctionner de manière indépendante, de stocker des données et de prendre des décisions sur la blockchain sans dépendre des systèmes centralisés traditionnels. Cet article se penchera sur la technologie principale de focEliza, l'arrière-plan du développeur, les performances du marché FOCAI et sa future orientation de développement.
2025-01-20
FAQ de Ralph Lauren Corp (RL)
Quel est le cours de l'action Ralph Lauren Corp (RL) aujourd'hui ?
Quels sont les prix le plus haut et le plus bas sur 52 semaines pour Ralph Lauren Corp (RL) ?
Quel est le ratio cours/bénéfice (P/E) de Ralph Lauren Corp (RL) ? Que signifie-t-il ?
Quelle est la capitalisation boursière de Ralph Lauren Corp (RL) ?
Quel est le bénéfice par action (EPS) trimestriel le plus récent pour Ralph Lauren Corp (RL) ?
Faut-il acheter ou vendre Ralph Lauren Corp (RL) maintenant ?
Quels sont les facteurs pouvant influencer le cours de l’action Ralph Lauren Corp (RL) ?
Comment acheter l'action Ralph Lauren Corp (RL) ?
Avertissement sur les risques
Avertissement
Ralph Lauren Corp (RL) Dernières Actualités
Perplexity révèle sa méthode de post-formation pour des agents de recherche web ; le modèle basé sur Qwen3.5 surpasse GPT-5.4 en précision et en coût
Publier le message d’actualité, 23 avril — L’équipe de recherche de Perplexity a publié un article technique décrivant sa méthodologie de post-formation pour les agents de recherche web. L’approche utilise deux modèles open source Qwen3.5 (Qwen3.5-122B-A10B et Qwen3.5-397B-A17B) et met en œuvre un pipeline en deux étapes : un fine-tuning supervisé (SFT) pour établir le respect des instructions et la cohérence linguistique, suivi d’un apprentissage par renforcement en ligne (RL) pour optimiser la précision de recherche et l’efficacité d’utilisation des outils. La phase RL tire parti de l’algorithme GRPO avec deux sources de données : un jeu de données interne propriétaire vérifiable de questions-réponses multi-étapes construit à partir de requêtes de départ nécessitant 2 à 4 étapes de raisonnement avec vérification par plusieurs solveurs, et des données conversationnelles générales basées sur des grilles d’évaluation qui transforment les exigences de déploiement en conditions atomiques objectivement vérifiables afin de prévenir la dégradation du comportement de la SFT. La conception des récompenses emploie une agrégation filtrée — les scores de préférence ne contribuent que lorsque la correction de base est atteinte (correspondance question-réponse de base) ou lorsque toutes les conditions de grille d’évaluation sont satisfaites (, empêchant des signaux de préférence élevés de masquer des erreurs factuelles. Les pénalités d’efficacité utilisent un ancrage au sein du groupe, en appliquant des pénalités progressives aux appels d’outils et à la longueur de génération dépassant la référence des réponses correctes dans le même groupe. L’évaluation montre que Qwen3.5-397B-SFT-RL atteint les meilleures performances de sa catégorie sur des bancs d’essai de recherche. Sur FRAMES, il atteint 57,3 % d’exactitude avec un seul appel d’outil, dépassant GPT-5.4 de 5,7 points de pourcentage et Claude Sonnet 4.6 de 4,7 points de pourcentage. Dans un budget modéré )quatre appels d’outils, il obtient 73,9 % d’exactitude à 0,02 $ par requête, contre 67,8 % d’exactitude pour GPT-5.4 à 0,085 $ par requête et 62,4 % d’exactitude pour Sonnet 4.6 à 0,153 $ par requête. Les chiffres de coût reposent sur la tarification API publique de chaque fournisseur et excluent les optimisations de mise en cache.
2026-03-21 00:19Cursor a confirmé officiellement que Kimi K2.5 est la base, La Face Cachée de la Lune : partenariat commercial autorisé
Gate News, le 21 mars, selon la surveillance de 1M AI News, le compte officiel de Moon of Darkness @Kimi_Moonshot a publié un message pour féliciter Cursor de la sortie de Composer 2, et a expliqué que Cursor accédait à Kimi K2.5 via la plateforme d'inférence et de RL hébergée par Fireworks AI, dans le cadre d'une coopération commerciale autorisée. Le co-fondateur de Cursor, Aman Sanger, et le vice-président de l'éducation des développeurs, Lee Robinson, ont ensuite confirmé publiquement l'origine de la base et divulgué des détails techniques. Sanger a indiqué que l'équipe avait évalué la perplexité de plusieurs bases, et que Kimi K2.5 « s'avérait être la plus performante », puis avait poursuivi un pré-entraînement supplémentaire et une reinforcement learning à 4 fois l'échelle avec une puissance de calcul élevée, déployée via le sampler d'inférence et de RL de Fireworks AI. Robinson a ajouté que, dans le modèle final, environ un quart de la puissance de calcul provenait de la base, le reste, soit trois quarts, provenant de l'entraînement propre de Cursor. Les deux fondateurs ont reconnu qu'il s'agissait d'une « erreur » de ne pas avoir mentionné la source de la base lors de la publication du blog, et ont promis que lors du prochain lancement de modèle, ils indiqueront immédiatement la provenance de la base. Auparavant, Elon Musk avait répondu sous un post de discussion pertinent : « Ouais, c'est Kimi 2.5 », ce qui a encore amplifié la popularité du sujet.
2026-03-20 09:47Cursor Composer 2 aurait utilisé le modèle Kimi K2.5, et Moonshot AI l'accuse de non-respect de la licence
Gate News rapporte que, le 20 mars, selon la surveillance de 1M AI News, le développeur @fynnso a découvert lors du débogage de la requête API de Cursor que l’ID du modèle réel de Composer 2 était kimi-k2p5-rl-0317-s515-fast, ce qui signifie « Kimi K2.5 + RL ». Le responsable de la pré-formation de Moonshot AI, Du Yulun, a immédiatement publié un tweet indiquant qu’après avoir testé le tokenizer de Composer 2, ils avaient constaté qu’il était « totalement identique à notre tokenizer Kimi », et qu’« il est presque certain que notre modèle a été soumis à une formation supplémentaire », en mentionnant directement le co-fondateur de Cursor, Michael Truell, pour lui demander « pourquoi ne pas respecter notre licence et ne pas avoir payé de frais ». Lors de la sortie de Composer 2 le 19 mars, Cursor a déclaré que l’amélioration des performances provenait d’un « pré-entraînement continu du modèle de base, combiné à un apprentissage par renforcement », mais n’a jamais mentionné Kimi K2.5. Kimi K2.5 utilise une version modifiée de la licence MIT, qui stipule clairement que tout produit commercial ayant plus de 100 millions d’utilisateurs actifs par mois ou plus de 20 millions de dollars de revenus mensuels doit afficher de manière visible « Kimi K2.5 » dans l’interface utilisateur. Avec une valorisation de Cursor à 29,3 milliards de dollars et une base d’utilisateurs payants, le seuil de revenus mensuels est presque inévitablement dépassé. À la date de publication, Cursor n’a pas répondu publiquement.
2026-02-12 14:21Gradient lance le cadre d'apprentissage par renforcement distribué Echo-2, et prévoit de lancer la plateforme RLaaS Logits
Foresight News : le laboratoire d'IA distribuée Gradient a publié Echo-2, un cadre d'apprentissage par renforcement distribué, visant à briser les barrières d'efficacité dans la recherche et l'entraînement en IA. Ce cadre décore la séparation entre Learner et Actor au niveau de l'architecture, dans le but de réduire les coûts de post-entraînement des grands modèles. Selon les données officielles, ce cadre peut réduire le coût de post-entraînement d'un modèle 30B de 4500 dollars à 425 dollars. Echo-2 utilise la technologie de séparation stockage-calcul pour un entraînement asynchrone (Async RL), supportant le déchargement de la puissance de sampling vers des instances de GPU instables et des GPU hétérogènes basés sur Parallax. Ce cadre, associé à des techniques telles que la tolérance à l'obsolescence limitée, la planification tolérante aux erreurs d'instance et le protocole de communication Lattica développé en interne, améliore l'efficacité de l'entraînement tout en maintenant la précision du modèle. De plus, Gradient prévoit de lancer la plateforme RLaaS (Renforcement par Apprentissage en tant que Service) Logits, qui est actuellement ouverte aux réservations pour les étudiants et chercheurs.
2026-01-02 09:15Mechanism Capital partenaire : la taille des données AI concrètes atteindra 100 fois en 2026
PANews a rapporté le 2 janvier qu’Andrew Kang, associé chez Mechanism Capital, a publié sur la plateforme X qu’en 2025, le domaine de la robotique résoudra des défis anciens liés à l’architecture et à l’entraînement des modèles, et réalisera des progrès significatifs dans la technologie de collecte de données, la compréhension de la qualité des données et la formulation des données, donnant aux entreprises d’intelligence artificielle la confiance qu’elles commenceront à investir dans la collecte de données à grande échelle, et que des entreprises comme Figure, Dyna et PI utiliseront l’apprentissage par renforcement (RL) La technologie innovante a atteint un taux de réussite de plus de 99 % dans divers scénarios d’applications pratiques. De plus, les avancées de la technologie mémoire ont brisé le « mur de mémoire », le ReMEmber de NVIDIA utilise une navigation basée sur la mémoire, les Titans et MIRAS obtiennent une mémoire en temps de test, et de meilleurs modèles de positionnement virtuel (VLM) signifient que les réseaux de positionnement virtuel (VLA) disposent de meilleures capacités de compréhension spatiale, ainsi que de processus d’annotation et de traitement des données pouvant grandement améliorer le débit. En 2025, le marché appréciera initialement la cartographie zéro tir, la sensibilité à la puissance visuelle et le raisonnement physique général générés par l’échelle des données, et l’échelle des données physiques d’IA sera 100 fois multipliée par 2026.

















































































































































































































































































































































































