Grok est l’un des LLM que j’ai trouvés les plus adaptés pour la prédiction de marché, car il peut rechercher en temps réel les dernières actualités X et possède d’autres capacités assez complètes, ce qui lui permet souvent de donner un coup de pouce pour analyser des événements.
Mais parfois, c’est aussi très tiré par les cheveux. Il y a peu, il disait qu’un marché avait un avantage énorme, puis quelques minutes plus tard, il affirmait que le prix était raisonnable basé sur une simulation de Monte Carlo.
Pourquoi utiliser un LLM pour faire de la prédiction n’est pas fiable ?
Pas de mémoire ni de boucle de rétroaction — le LLM ne se souvient pas de ce qu’il a dit, il donne toujours une réponse ponctuelle Il est bon pour la narration et la pollution narrative, mais pas pour la décomposition probabiliste — il est influencé par l’émotion du marché et les actualités Il n’a pas d’enjeux personnels — s’il se trompe, il n’y a pas de coût, mais nos investissements en argent réel peuvent perdre gros
Pour que l’IA puisse vraiment aider à jouer sur le marché de la prédiction, il faut que :
L’avantage ait un seuil clair (par exemple ≥3%) Les décisions soient traçables et testables (Decision Contract) Il y ait une boucle d’évolution (prédiction → validation → correction) Les données soutiennent plus que la simple conclusion du modèle
Le rôle principal de l’IA ne devrait pas être la prédiction, mais plutôt le filtrage du bruit, la détection d’avantages, et la quantification des risques.
La décision finale doit revenir au joueur, ou à un système avec des règles claires, testables, et une boucle de rétroaction.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Grok est l’un des LLM que j’ai trouvés les plus adaptés pour la prédiction de marché, car il peut rechercher en temps réel les dernières actualités X et possède d’autres capacités assez complètes, ce qui lui permet souvent de donner un coup de pouce pour analyser des événements.
Mais parfois, c’est aussi très tiré par les cheveux. Il y a peu, il disait qu’un marché avait un avantage énorme, puis quelques minutes plus tard, il affirmait que le prix était raisonnable basé sur une simulation de Monte Carlo.
Pourquoi utiliser un LLM pour faire de la prédiction n’est pas fiable ?
Pas de mémoire ni de boucle de rétroaction — le LLM ne se souvient pas de ce qu’il a dit, il donne toujours une réponse ponctuelle
Il est bon pour la narration et la pollution narrative, mais pas pour la décomposition probabiliste — il est influencé par l’émotion du marché et les actualités
Il n’a pas d’enjeux personnels — s’il se trompe, il n’y a pas de coût, mais nos investissements en argent réel peuvent perdre gros
Pour que l’IA puisse vraiment aider à jouer sur le marché de la prédiction, il faut que :
L’avantage ait un seuil clair (par exemple ≥3%)
Les décisions soient traçables et testables (Decision Contract)
Il y ait une boucle d’évolution (prédiction → validation → correction)
Les données soutiennent plus que la simple conclusion du modèle
Le rôle principal de l’IA ne devrait pas être la prédiction, mais plutôt le filtrage du bruit, la détection d’avantages, et la quantification des risques.
La décision finale doit revenir au joueur, ou à un système avec des règles claires, testables, et une boucle de rétroaction.