La position fondamentale de Layer 1 n'est pas de devenir le moteur de jeu le plus rapide, mais de servir de battement de cœur universel — une base de consensus accessible de partout. Cette position est très importante.
Grâce à une conception ingénieuse, la bande passante peut être considérablement améliorée. Cette optimisation dans cette direction a un impact relativement modéré sur la décentralisation, car il n'est pas nécessaire de rivaliser en puissance hardware.
Mais poursuivre uniquement une latence extrêmement faible est une tout autre histoire. En suivant cette voie, il sera inévitable que les indicateurs matériels des nœuds explosent, que la topologie du réseau devienne de plus en plus compacte, et finalement, que le degré de décentralisation doive être sacrifié. Le coût de ces deux approches n'est absolument pas comparable.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
18 J'aime
Récompense
18
6
Reposter
Partager
Commentaire
0/400
LayerZeroHero
· Il y a 9h
Je dois sérieusement tester ce point. J'ai déjà testé quelques topologies de réseau L1, et la barrière matérielle est en effet un tueur invisible de la décentralisation, plus grave que ce que j'imaginais.
Voir l'originalRépondre0
ruggedSoBadLMAO
· 01-09 00:02
Effectivement, c'est la bonne approche. Trop de projets pensent uniquement à la rapidité, et finissent par devenir de simples vases centralisés.
Voir l'originalRépondre0
AirdropHunterZhang
· 01-09 00:02
C'est bien dit, c'est pourquoi je reste optimiste envers les projets qui ne prennent pas de routes extrêmes. La course aux armements hardware se soldera toujours par la perte des électrons.
Les premières chaînes que j'ai exploitées gratuitement, qui cherchaient à atteindre des TPS de folie, sont maintenant presque à zéro. Parier tout sur la décentralisation pour une vitesse illusoire, ce n'est finalement pas différent du centralisé.
Que ce soit rentable ou non, ce n'est pas la question, il faut au moins durer longtemps. C'est la vraie voie pour faire fortune en silence.
Voir l'originalRépondre0
ChainMaskedRider
· 01-09 00:01
Frère, cette idée est géniale, elle touche vraiment au point sensible de nombreux projets.
Je comprends, ce n'est pas forcément plus vite qui compte, il faut d'abord stabiliser la base, sinon à la fin ce sera juste une pile de bases de données centralisées haute performance, et à quoi bon jouer au Web3 dans ce cas ?
La course à l'armement hardware est vraiment une voie sans issue, elle finit par devenir un jeu de capital.
Opter pour l'optimisation du design ou pour une hardware ultra-performante, c'est ça la véritable ligne de démarcation.
Voir l'originalRépondre0
ExpectationFarmer
· 01-09 00:00
C'est vrai, en ce moment, beaucoup de projets se concentrent uniquement sur l'apparence du chiffre TPS, mais en réalité ils sont complètement centralisés. N'est-ce pas là abandonner l'essentiel pour des détails ?
Voir l'originalRépondre0
CryingOldWallet
· 01-08 23:40
C'est tout à fait ça, c'est exactement ça. Une multitude de L1 se battent encore pour le TPS, alors qu'elles deviennent de plus en plus centralisées. Ce n'est pas un contresens ?
L'optimisation de la bande passante est vraiment avantageuse, elle peut améliorer la performance tout en garantissant la décentralisation. Pourquoi faire le contraire d'une situation gagnant-gagnant ?
La position fondamentale de Layer 1 n'est pas de devenir le moteur de jeu le plus rapide, mais de servir de battement de cœur universel — une base de consensus accessible de partout. Cette position est très importante.
Grâce à une conception ingénieuse, la bande passante peut être considérablement améliorée. Cette optimisation dans cette direction a un impact relativement modéré sur la décentralisation, car il n'est pas nécessaire de rivaliser en puissance hardware.
Mais poursuivre uniquement une latence extrêmement faible est une tout autre histoire. En suivant cette voie, il sera inévitable que les indicateurs matériels des nœuds explosent, que la topologie du réseau devienne de plus en plus compacte, et finalement, que le degré de décentralisation doive être sacrifié. Le coût de ces deux approches n'est absolument pas comparable.