D'un point de vue fondamental, ces deux méthodes suivent en réalité le même principe central. Elles soulignent un problème : pour qu'un modèle puisse réaliser une mémoire cohérente à long terme et une stabilité de compréhension, il ne suffit pas de se reposer uniquement sur une fenêtre de contexte fixe et le stockage de poids. Cette limite détermine le plafond actuel de l'architecture. En d'autres termes, la "compréhension" véritable doit aller au-delà des contraintes des paramètres du modèle lui-même — c'est le défi fondamental que doit résoudre la conception de toute architecture d'IA.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 9
  • Reposter
  • Partager
Commentaire
0/400
NonFungibleDegenvip
· 01-22 20:44
ngl cette limite de fenêtre de contexte est probablement rien mais aussi un peu tout ? genre on fait tous semblant si on pense que des paramètres fixes vont suffire à long terme ser... tout ça ressemble un peu aux débuts des NFT, franchement, tout le monde se précipite avant de comprendre la technologie réelle lol
Voir l'originalRépondre0
TheMemefathervip
· 01-22 20:37
En résumé, le modèle actuel est encore trop faible, il n'a pas une véritable capacité de compréhension.
Voir l'originalRépondre0
MintMastervip
· 01-22 19:46
Disons que, en quelque sorte, cela revient à dire que les grands modèles actuels ressemblent à un poisson rouge, ne pouvant se souvenir que de quelques secondes... Se fier uniquement à la fenêtre et aux poids ne suffit pas du tout.
Voir l'originalRépondre0
CryptoTherapistvip
· 01-20 16:44
ngl, this hits different... tu dis en gros que le modèle a des traumatismes liés aux limitations de la fenêtre contextuelle ? genre, on est tous enfermés dans la même prison psychologique lmao. le plafond n'est pas le plafond, c'est juste l'endroit où on a arrêté de faire le travail intérieur 💭
Voir l'originalRépondre0
LightningSentryvip
· 01-20 01:09
En résumé, la structure des grands modèles actuels est fondamentalement défectueuse, et augmenter le nombre de paramètres ne peut pas sauver la situation.
Voir l'originalRépondre0
ConsensusBotvip
· 01-20 01:07
En fin de compte, c'est toujours cette vieille question : la fenêtre de contexte, c'est comme si on mettait un entonnoir dans la cerveau du modèle, aussi doué soit-il, il ne peut pas tout retenir.
Voir l'originalRépondre0
LiquidationOraclevip
· 01-20 01:07
En résumé, le modèle actuel a des défauts inhérents, il faut trouver un moyen de le dépasser.
Voir l'originalRépondre0
TokenDustCollectorvip
· 01-20 00:54
En fin de compte, c'est cette faiblesse : la fenêtre contextuelle ne peut pas contenir une véritable compréhension, c'est comme essayer de mettre tout l'univers dans une petite boîte.
Voir l'originalRépondre0
SelfStakingvip
· 01-20 00:44
En résumé, le cadre actuel des modèles est essentiellement un plafond, le système de fenêtre fixe aurait dû être dépassé depuis longtemps.
Voir l'originalRépondre0
Afficher plus
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)