Parler de l'histoire de l'optimisation des performances de ZK est en fait assez embarrassant.
Au fil des ans, la grande majorité des solutions ont fait la même chose : donner un coup de fouet aux anciens systèmes. Soit on réécrit la logique du code pour en tirer un peu plus d'efficacité, soit on dépense de l'argent pour obtenir du matériel plus performant. Ça a l'air assez animé, mais en réalité ? On est toujours coincé à tourner en rond avec les mêmes méthodes sur une seule machine.
Où se trouve la véritable percée ? Ce n'est pas de faire fonctionner une machine plus rapidement, mais de sortir de ce cadre pour réfléchir. Le plafond de performance ne peut pas être brisé simplement en empilant des matériaux, tant que la pensée architecturale reste inchangée, l'optimisation atteindra vite ses limites.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
3
Reposter
Partager
Commentaire
0/400
WalletInspector
· 12-01 09:45
L'architecture reste inchangée, peu importe combien on s'acharne, c'est inutile, c'est dit.
Voir l'originalRépondre0
DefiPlaybook
· 12-01 09:40
En d'autres termes, c'est changer le bouillon sans changer les médicaments. J'en ai assez des optimisations de ZK ces dernières années.
Si l'architecture ne change pas et que l'on empile le matériel, c'est la performance de Schrödinger - les données semblent belles, mais en réalité, ça ne fonctionne pas.
Il faut vraiment que quelqu'un réfléchisse à cela, sinon on restera bloqué dans l'enfer des machines individuelles.
Voir l'originalRépondre0
MetaverseVagrant
· 12-01 09:35
En d'autres termes, c'est comme tourner en rond, personne n'ose toucher à ce piège.
Parler de l'histoire de l'optimisation des performances de ZK est en fait assez embarrassant.
Au fil des ans, la grande majorité des solutions ont fait la même chose : donner un coup de fouet aux anciens systèmes. Soit on réécrit la logique du code pour en tirer un peu plus d'efficacité, soit on dépense de l'argent pour obtenir du matériel plus performant. Ça a l'air assez animé, mais en réalité ? On est toujours coincé à tourner en rond avec les mêmes méthodes sur une seule machine.
Où se trouve la véritable percée ? Ce n'est pas de faire fonctionner une machine plus rapidement, mais de sortir de ce cadre pour réfléchir. Le plafond de performance ne peut pas être brisé simplement en empilant des matériaux, tant que la pensée architecturale reste inchangée, l'optimisation atteindra vite ses limites.