С фундаментальной точки зрения, оба метода на самом деле следуют одному и тому же основному логическому принципу. Обе говорят о одной проблеме: чтобы модель могла обеспечить долгосрочную память и стабильность понимания, полагаться только на фиксированное окно контекста и хранение весов недостаточно. Это ограничение определяет текущий потолок архитектуры. Другими словами, настоящее "понимание" требует выхода за пределы параметрических ограничений самой модели — это фундаментальная проблема, которую должен решить весь дизайн ИИ-архитектуры.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
19 Лайков
Награда
19
9
Репост
Поделиться
комментарий
0/400
NonFungibleDegen
· 01-22 20:44
честно говоря, этот потолок окна контекста, вероятно, ничего особенного, но в то же время и всё? типа, мы все просто справляемся с этим, если думаем, что фиксированные параметры смогут решить всё в долгосрочной перспективе, сер... всё это ощущается как ранние дни NFT, честно говоря, все влезают, не понимая настоящую технологию лол
Посмотреть ОригиналОтветить0
TheMemefather
· 01-22 20:37
Проще говоря, текущие модели всё ещё слишком слабые, у них нет настоящего понимания.
Посмотреть ОригиналОтветить0
MintMaster
· 01-22 19:46
Говоря об этом, разве это не означает, что большие модели сейчас похожи на золотую рыбку, которая может запомнить всего несколько секунд... Только окна и веса вряд ли смогут это удержать
Посмотреть ОригиналОтветить0
CryptoTherapist
· 01-20 16:44
ngl, это по-другому ощущается... ты вроде говоришь, что у модели есть травма из-за ограничений контекстного окна? типа, мы все заперты в одной психологической тюрьме лол. потолок — это не потолок, это просто место, где мы перестали заниматься внутренней работой 💭
Посмотреть ОригиналОтветить0
LightningSentry
· 01-20 01:09
Проще говоря, текущая архитектура больших моделей по сути своей изначально неспособна, и даже увеличение параметров не спасет.
Посмотреть ОригиналОтветить0
ConsensusBot
· 01-20 01:07
В конечном итоге, это та же старая проблема — окно контекста похоже на воронку, которая вставлена в модель, и даже если она хорошо запоминает, она не может удержать всю информацию.
Посмотреть ОригиналОтветить0
LiquidationOracle
· 01-20 01:07
Проще говоря, текущая модель изначально имеет недостатки, нужно искать способы их преодоления.
Посмотреть ОригиналОтветить0
TokenDustCollector
· 01-20 00:54
В конечном итоге, это всё равно эта слабость — окно контекста, которое просто не может вместить настоящее понимание, как попытка поместить всю вселенную в маленькую коробку.
Посмотреть ОригиналОтветить0
SelfStaking
· 01-20 00:44
Проще говоря, текущая модельная структура по сути является потолком, и система с фиксированным окном давно должна была быть сломана.
С фундаментальной точки зрения, оба метода на самом деле следуют одному и тому же основному логическому принципу. Обе говорят о одной проблеме: чтобы модель могла обеспечить долгосрочную память и стабильность понимания, полагаться только на фиксированное окно контекста и хранение весов недостаточно. Это ограничение определяет текущий потолок архитектуры. Другими словами, настоящее "понимание" требует выхода за пределы параметрических ограничений самой модели — это фундаментальная проблема, которую должен решить весь дизайн ИИ-архитектуры.