Grok — це, мабуть, один із найзручніших для досвіду прогнозуючих ринків LLM, оскільки він може у реальному часі шукати найновіші повідомлення X, а також має досить широкий набір функцій, часто допомагаючи переглядати події.
Проте іноді він буває дуже дивним: щойно казав, що у певного ринку велика перевага, а через кілька хвилин вже на основі Монте-Карло-моделювання стверджує, що ціна справедлива.
Чому гратися з прогнозами за допомогою LLM — не дуже надійно?
Відсутність пам’яті та зворотного зв’язку — LLM не пам’ятає, що він говорив раніше, і завжди дає одноразові відповіді Погано справляється з нарративним забрудненням, не вміє розкладати ймовірності — його ведуть ринкові емоції та новини Відсутність власного інтересу — якщо він помиляється, це не коштує йому нічого, але наші ставки — це реальні гроші
Щоб справді зробити AI корисним для прогнозуючих ринків, потрібно, щоб виконувалися умови:
Має бути чіткий поріг переваги (наприклад, ≥3%) Рішення має бути відтворюваним і тестованим (Decision Contract) Має бути Еволюційний цикл (прогноз → перевірка → корекція) Дані мають підтримувати висновки моделі > самі висновки моделі
Найбільша роль AI має полягати не у прогнозуванні, а у фільтрації шуму, виявленні переваг і кількісному оцінюванні ризиків.
Кінцеве рішення має належати гравцеві або бути у системі з чіткими правилами, можливістю тестування та зворотним зв’язком.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Grok — це, мабуть, один із найзручніших для досвіду прогнозуючих ринків LLM, оскільки він може у реальному часі шукати найновіші повідомлення X, а також має досить широкий набір функцій, часто допомагаючи переглядати події.
Проте іноді він буває дуже дивним: щойно казав, що у певного ринку велика перевага, а через кілька хвилин вже на основі Монте-Карло-моделювання стверджує, що ціна справедлива.
Чому гратися з прогнозами за допомогою LLM — не дуже надійно?
Відсутність пам’яті та зворотного зв’язку — LLM не пам’ятає, що він говорив раніше, і завжди дає одноразові відповіді
Погано справляється з нарративним забрудненням, не вміє розкладати ймовірності — його ведуть ринкові емоції та новини
Відсутність власного інтересу — якщо він помиляється, це не коштує йому нічого, але наші ставки — це реальні гроші
Щоб справді зробити AI корисним для прогнозуючих ринків, потрібно, щоб виконувалися умови:
Має бути чіткий поріг переваги (наприклад, ≥3%)
Рішення має бути відтворюваним і тестованим (Decision Contract)
Має бути Еволюційний цикл (прогноз → перевірка → корекція)
Дані мають підтримувати висновки моделі > самі висновки моделі
Найбільша роль AI має полягати не у прогнозуванні, а у фільтрації шуму, виявленні переваг і кількісному оцінюванні ризиків.
Кінцеве рішення має належати гравцеві або бути у системі з чіткими правилами, можливістю тестування та зворотним зв’язком.