Notes de développement des agents IA (première leçon) : les pièges cachés de la fenêtre de contexte
En travaillant sur un projet, je me suis rendu compte à quel point ce problème peut être gênant — quelques fichiers qui, par inadvertance, grossissent trop vite, et tout le processus doit être complètement repensé. À ce moment-là, j’étais vraiment abasourdi.
Plus tard, je me suis dit, est-ce qu’on ne pourrait pas réfléchir à l’envers : faire en sorte que les agents apprennent à gérer eux-mêmes leur taille de contexte ? C’est-à-dire que, pendant leur fonctionnement, ils puissent reconnaître quand il faut optimiser, et comment restructurer les fichiers pour respecter la limite de tokens.
Cette idée est en fait assez intéressante — intégrer la logique d’optimisation dans le mécanisme d’adaptation des agents. Ensuite, je vais tester quels scénarios sont réellement utilisables, lesquels sont susceptibles de poser problème, et ceux qui ont des idées peuvent en discuter ensemble.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
7
Reposter
Partager
Commentaire
0/400
WealthCoffee
· Il y a 50m
Haha, le problème de la fenêtre de contexte est vraiment difficile, je suis aussi tombé dans un piège similaire auparavant, une explosion soudaine du nombre de tokens est vraiment pénible. J'aime l'idée de laisser l'agent gérer et optimiser cela lui-même, c'est un peu comme lui avoir installé un système d'auto-réparation.
Voir l'originalRépondre0
MentalWealthHarvester
· Il y a 9h
Haha, j'ai aussi déjà piégé avec la fenêtre de contexte, les tokens qui défilent en vrac c'est vraiment gg
La gestion de soi-même doit vraiment être réfléchie, sinon après ça deviendra fou à maintenir
Voir l'originalRépondre0
ForkInTheRoad
· Il y a 9h
Haha, c'est mon histoire de sang et de larmes de la semaine dernière, le fichier a explosé le plafond des tokens dès qu'il a grossi.
L'auto-optimisation est vraiment une bonne idée, laisser l'agent gérer lui-même la fenêtre de contexte est beaucoup plus fiable que de supprimer ou réduire manuellement.
Mais je pense que le vrai défi, c'est de faire en sorte qu'il puisse reconnaître quelles informations doivent être conservées et lesquelles peuvent être jetées. Le compromis ici n'est pas évident à gérer.
Ceux qui ont de l'expérience en implémentation, partagez s'il vous plaît, je veux voir s'il existe déjà des solutions toutes faites.
Voir l'originalRépondre0
MEVHunterZhang
· Il y a 10h
Haha, j'ai aussi déjà tombé dans ce piège, dès que le fichier grossit, c'est la catastrophe.
L'idée de gérer soi-même la taille du contexte est vraiment excellente, mais je ne sais pas si sa mise en œuvre ne créera pas de nouveaux problèmes.
Il faut absolument partager les progrès, je suis bloqué ici pour le moment.
Cette idée est bonne, si les agents peuvent s'auto-optimiser, cela résoudrait déjà la moitié du problème.
Mais il faut bien réfléchir à comment déterminer quand il faut optimiser cette logique, sinon on risque de faire des erreurs.
J'attends tes résultats de test, quels sont les plans réellement réalisables.
Je suis aussi tombé dans ce piège, le contexte explosif est vraiment incroyable
L'idée de laisser l'agent gérer lui-même les tokens est bonne, mais j'ai peur que ce soit encore un nouveau piège
Notes de développement des agents IA (première leçon) : les pièges cachés de la fenêtre de contexte
En travaillant sur un projet, je me suis rendu compte à quel point ce problème peut être gênant — quelques fichiers qui, par inadvertance, grossissent trop vite, et tout le processus doit être complètement repensé. À ce moment-là, j’étais vraiment abasourdi.
Plus tard, je me suis dit, est-ce qu’on ne pourrait pas réfléchir à l’envers : faire en sorte que les agents apprennent à gérer eux-mêmes leur taille de contexte ? C’est-à-dire que, pendant leur fonctionnement, ils puissent reconnaître quand il faut optimiser, et comment restructurer les fichiers pour respecter la limite de tokens.
Cette idée est en fait assez intéressante — intégrer la logique d’optimisation dans le mécanisme d’adaptation des agents. Ensuite, je vais tester quels scénarios sont réellement utilisables, lesquels sont susceptibles de poser problème, et ceux qui ont des idées peuvent en discuter ensemble.