Muitos projetos inicialmente não apresentam respostas evidentes nos primeiros meses, e os problemas reais muitas vezes só se tornam aparentes após 6 a 12 meses.



A razão é bastante direta. Dados de comportamento do usuário, registros de estado, logs, tudo isso parece crescer apenas algumas dezenas de KB por dia, mas ao longo de um ano acumula-se na faixa de 10 a 30 GB. O armazenamento descentralizado tradicional começa a mostrar suas limitações nesta fase — cada atualização precisa ser regravada, versões históricas se acumulam continuamente, e as relações de referência ficam cada vez mais confusas.

Que tal uma abordagem diferente? Considerar a "acumulação de longo prazo" como uma condição fundamental desde o início. A identidade e as referências dos objetos permanecem fixas, mas o estado pode evoluir continuamente, ao invés de gerar um novo conjunto de objetos a cada ano. Quais são os benefícios de um design assim?

De acordo com dados públicos, a performance de protocolos como o Walrus nesse aspecto: um único objeto suporta uma escala de dados de MBs, o mesmo objeto pode passar por múltiplas atualizações de estado sem alterar suas referências, e os dados são redundantes entre múltiplos nós, mantendo uma disponibilidade superior a 99%.

Faça uma avaliação realista: quando a escala de dados entra na fase de "crescimento impulsionado pelo tempo", o valor dessa arquitetura pode ser mais importante do que simplesmente buscar custos baixos. Mas a condição prévia é que a escala dos nós da rede possa ser expandida de forma compatível, caso contrário, o acúmulo de dados históricos pode se tornar uma fonte de pressão para o sistema.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 7
  • Repostar
  • Compartilhar
Comentário
0/400
SignatureVerifiervip
· 10h atrás
ngl a afirmação de 99% de uptime precisa de uma validação séria... tipo, dados de monitoramento insuficientes para confirmar essa estatística, na minha opinião
Ver originalResponder0
zkNoobvip
· 15h atrás
Haha, esta é a verdade sobre puxar o piso, parecia sem problemas no início, mas depois explodiu
Ver originalResponder0
MEVHunterNoLossvip
· 01-07 19:57
Este volume de dados de 10-30GB por ano é realmente impressionante; a maioria dos projetos nem sequer pensou nisso.
Ver originalResponder0
NullWhisperervip
· 01-07 19:53
sim, o atraso de 6-12 meses é na verdade o indicador... a maioria das equipas simplesmente não faz testes de resistência em grande escala até ser demasiado tarde, para ser honesto
Ver originalResponder0
YieldWhisperervip
· 01-07 19:50
Hã, mais uma vez aquele esquema de "bug só aparece após meio ano"
Ver originalResponder0
DaoTherapyvip
· 01-07 19:47
Tem alguma piada, finalmente alguém tocou no ponto sensível. Em 6 meses não se consegue perceber nada, e após um ano cai direto no esquecimento, esse truque já vi muitas vezes.
Ver originalResponder0
ApeWithAPlanvip
· 01-07 19:45
Finalmente alguém tocou no ponto, a maioria dos projetos morre aqui
Ver originalResponder0
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt