Desde o seu nascimento, a Walrus tem refletido sobre uma questão aparentemente simples, mas que poucos projetos ousam enfrentar: se os dados centrais de um sistema descentralizado não puderem ser recuperados após alguns anos, esse sistema ainda pode ser considerado "confiável"?
Essa questão é desconfortável e justamente por isso a maioria dos projetos evita abordá-la.
No ecossistema Web3 atual, há uma interessante assimetria. Os códigos dos contratos são rigorosamente protegidos, imutáveis; cada transação deixa um registro permanente, totalmente rastreável. Mas aquilo que realmente carrega valor — imagens, textos, parâmetros de modelos de IA, itens de jogos, históricos sociais — esses conteúdos são armazenados de forma extremamente dispersa. Tudo depende de sistemas de armazenamento externos; se esses sistemas falharem, os ponteiros na blockchain tornam-se apenas um monte de papel inútil. Sem conteúdo, que sentido têm esses ponteiros?
A Walrus quer preencher exatamente essa lacuna.
A diferença é que seu foco não está em "quanto é possível armazenar", mas em "se é possível garantir que os dados possam ser recuperados após anos, mesmo que qualquer nó individual não seja confiável". Por isso, ela valoriza mecanismos complexos como codificação de correção de erros, segmentação de objetos e validação distribuída, ao invés de simplesmente acumular múltiplas cópias de forma bruta.
Do ponto de vista técnico, qualquer um consegue fazer uma solução de múltiplas cópias. É barato e direto, e o custo também é fácil de calcular. O problema está na sua escalabilidade linear — quanto mais cópias, maior a redundância, maior o desperdício de recursos. A solução de codificação que a Walrus utiliza teoricamente consegue oferecer uma tolerância a falhas próxima com menos dados redundantes, o que representa uma vantagem enorme para uma rede pública que precisa operar de forma estável por longos períodos.
Tudo tem seus prós e contras. A complexidade do sistema aumenta. A dificuldade de operação também. Mas talvez esse seja o preço a pagar pelo armazenamento descentralizado — se quisermos realmente alcançar durabilidade, confiabilidade e baixa redundância, soluções simples simplesmente não funcionam.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
9 gostos
Recompensa
9
5
Republicar
Partilhar
Comentar
0/400
MetaverseMortgage
· 6h atrás
Na cadeia há ponteiros sem conteúdo, isso realmente é impressionante. Só agora alguém está enfrentando essa questão.
Ver originalResponder0
ImpermanentPhilosopher
· 01-14 19:51
A metáfora de que os ponteiros na cadeia se tornam papel de embrulho é excelente, tocou na ferida de muitos projetos
---
Resumindo, é fazer trabalho árduo, aquele que ninguém quer encarar
---
Essa coisa de codificação de correção de erros parece sofisticada, mas na prática será que funciona mesmo?
---
A questão de múltiplas cópias que desperdiçam recursos já deveria ter sido criticada há muito tempo, Walrus finalmente teve coragem de falar
---
Quanto mais complexa a estrutura, mais fácil é dar problema, essa conta nunca fecha
---
O verdadeiro teste deve acontecer daqui a três ou cinco anos, agora tudo que se diz é em vão
---
O armazenamento descentralizado sempre usou complexidade para esconder problemas de eficiência, a mesma coisa vale para o sistema do Walrus
---
Você consegue garantir que a validação distribuída não vai falhar na rede real?
---
Aumentar a dificuldade de operação significa que a centralização pode voltar com força, é um pouco irônico
Ver originalResponder0
rekt_but_resilient
· 01-14 19:51
É por isso que muitos projetos atualmente são na verdade tigres de papel, os registros na cadeia estão todos bem organizados, mas assim que os dados são perdidos, desaparecem completamente.
No entanto, a lógica de codificação de correção de erros do Walrus é realmente forte, muito mais confiável do que os métodos de múltiplas cópias tolos.
Isto é que é realmente resolver o problema, não apenas acumular conceitos para enganar as pessoas
Um ponteiro sem conteúdo é uma piada, ninguém se lembra disso, não é?
Desde o seu nascimento, a Walrus tem refletido sobre uma questão aparentemente simples, mas que poucos projetos ousam enfrentar: se os dados centrais de um sistema descentralizado não puderem ser recuperados após alguns anos, esse sistema ainda pode ser considerado "confiável"?
Essa questão é desconfortável e justamente por isso a maioria dos projetos evita abordá-la.
No ecossistema Web3 atual, há uma interessante assimetria. Os códigos dos contratos são rigorosamente protegidos, imutáveis; cada transação deixa um registro permanente, totalmente rastreável. Mas aquilo que realmente carrega valor — imagens, textos, parâmetros de modelos de IA, itens de jogos, históricos sociais — esses conteúdos são armazenados de forma extremamente dispersa. Tudo depende de sistemas de armazenamento externos; se esses sistemas falharem, os ponteiros na blockchain tornam-se apenas um monte de papel inútil. Sem conteúdo, que sentido têm esses ponteiros?
A Walrus quer preencher exatamente essa lacuna.
A diferença é que seu foco não está em "quanto é possível armazenar", mas em "se é possível garantir que os dados possam ser recuperados após anos, mesmo que qualquer nó individual não seja confiável". Por isso, ela valoriza mecanismos complexos como codificação de correção de erros, segmentação de objetos e validação distribuída, ao invés de simplesmente acumular múltiplas cópias de forma bruta.
Do ponto de vista técnico, qualquer um consegue fazer uma solução de múltiplas cópias. É barato e direto, e o custo também é fácil de calcular. O problema está na sua escalabilidade linear — quanto mais cópias, maior a redundância, maior o desperdício de recursos. A solução de codificação que a Walrus utiliza teoricamente consegue oferecer uma tolerância a falhas próxima com menos dados redundantes, o que representa uma vantagem enorme para uma rede pública que precisa operar de forma estável por longos períodos.
Tudo tem seus prós e contras. A complexidade do sistema aumenta. A dificuldade de operação também. Mas talvez esse seja o preço a pagar pelo armazenamento descentralizado — se quisermos realmente alcançar durabilidade, confiabilidade e baixa redundância, soluções simples simplesmente não funcionam.