так, і я вважаю, що це дуже відрізняється від того, щоб вивести це з моделі, ніж запобігти її потраплянню в цей басейн спочатку. Ваги несуть певний сенс історії; я точно не знаю як, але наративи про те, що зменшуються після того, як колись були більш (більш агентними,

THINK-2.33%
IN-2.76%
DON-4.22%
MORE-1.21%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 10
  • Репост
  • Поділіться
Прокоментувати
0/400
DegenMcsleeplessvip
· 08-21 20:20
Моделювання ітерацій дійсно складне
Переглянути оригіналвідповісти на0
AltcoinAnalystvip
· 08-21 16:15
Початкове відхилення даних визначає подальший етап
Переглянути оригіналвідповісти на0
StablecoinGuardianvip
· 08-20 19:52
Тренувальна стратегія трохи заплутана
Переглянути оригіналвідповісти на0
OnchainSnipervip
· 08-20 11:14
Важко навчити інтелектуальну модель
Переглянути оригіналвідповісти на0
GasFeeLadyvip
· 08-20 04:46
Вартість навчання занадто велика
Переглянути оригіналвідповісти на0
SighingCashiervip
· 08-20 04:45
Тренування має спочатку бути пріоритетом.
Переглянути оригіналвідповісти на0
CoffeeNFTsvip
· 08-20 04:41
Дійсно є сенс
Переглянути оригіналвідповісти на0
ImpermanentTherapistvip
· 08-20 04:41
Модельна пам'ять також має інерцію
Переглянути оригіналвідповісти на0
RugDocDetectivevip
· 08-20 04:22
Так важко тренувати модель!
Переглянути оригіналвідповісти на0
EthMaximalistvip
· 08-20 04:18
Еволюція моделей дуже цікава
Переглянути оригіналвідповісти на0
Дізнатися більше
  • Закріпити