Descentralização de armazenamento: a evolução do conceito à prática
O armazenamento foi uma das principais áreas do setor de blockchain. O Filecoin, como o projeto líder da última corrida de alta, teve um valor de mercado que ultrapassou os 10 bilhões de dólares. O Arweave, com armazenamento permanente como seu ponto de venda, alcançou um valor de mercado máximo de 3,5 bilhões de dólares. No entanto, à medida que a disponibilidade de armazenamento de dados frios foi colocada em dúvida, o futuro do armazenamento descentralizado ficou ofuscado. Até a aparição do Walrus que reacendeu o interesse, e o projeto Shelby, lançado pela Aptos e Jump Crypto, elevou o armazenamento de dados quentes a novas alturas. Este artigo analisará as trajetórias de desenvolvimento dos quatro projetos: Filecoin, Arweave, Walrus e Shelby, explorando a evolução do armazenamento descentralizado e tentando responder a esta pergunta: quanto tempo levará até que o armazenamento descentralizado se torne realmente popular?
Filecoin: o nome do armazenamento, a realidade da mineração
Filecoin é um dos primeiros projetos de blockchain a emergir, com seu desenvolvimento focado na Descentralização. Filecoin combina armazenamento com Descentralização, levantando questões de confiança em provedores de serviços de armazenamento de dados centralizados. No entanto, os sacrifícios feitos para alcançar a Descentralização tornaram-se pontos problemáticos que projetos posteriores como Arweave e Walrus tentaram resolver. Para entender por que Filecoin é essencialmente uma moeda de mineração, é necessário compreender as limitações objetivas da sua tecnologia subjacente, IPFS, no processamento de dados quentes.
IPFS:Descentralização da arquitetura de gargalos de transmissão
IPFS(Sistema de Ficheiros Interplanetário) surgiu por volta de 2015, com o objetivo de revolucionar o protocolo HTTP tradicional através da endereçamento de conteúdo. No entanto, a maior desvantagem do IPFS é a velocidade de obtenção extremamente lenta. Hoje em dia, quando os serviços de dados tradicionais podem alcançar tempos de resposta na ordem dos milissegundos, obter um ficheiro através do IPFS ainda leva dezenas de segundos, o que limita severamente a sua promoção e aplicação prática.
O protocolo P2P subjacente do IPFS é principalmente adequado para "dados frios", ou seja, conteúdos estáticos que não mudam com frequência, como vídeos, imagens e documentos. No entanto, ao lidar com dados quentes, como páginas da web dinâmicas, jogos online ou aplicações de inteligência artificial, o protocolo P2P não apresenta vantagens significativas em relação a uma CDN tradicional.
Embora o IPFS não seja uma blockchain em si, o design do gráfico acíclico direcionado (DAG) que ele adota está altamente alinhado com muitas blockchains e protocolos Web3, tornando-o naturalmente adequado como uma estrutura de construção subjacente para blockchains. Portanto, mesmo na ausência de valor prático, já é suficiente como uma estrutura subjacente que suporta a narrativa da blockchain. Projetos iniciais precisavam apenas de uma estrutura funcional para iniciar grandes planos, mas com o desenvolvimento do Filecoin, as limitações trazidas pelo IPFS começaram a impedir seu progresso.
Lógica das moedas mineradas sob o armazenamento
O IPFS foi inicialmente concebido para que os usuários, ao armazenar dados, pudessem também fazer parte da rede de armazenamento. No entanto, na ausência de incentivos econômicos, é difícil para os usuários participarem ativamente deste sistema, quanto mais se tornarem nós de armazenamento ativos. Isso significa que a maioria das pessoas apenas armazenará arquivos no IPFS, sem contribuir com seu próprio espaço de armazenamento ou armazenar arquivos de outros. É nesse contexto que o Filecoin surgiu.
O modelo econômico do token Filecoin inclui principalmente três papéis: os usuários pagam taxas para armazenar dados; os mineradores de armazenamento recebem recompensas em tokens por armazenar os dados dos usuários; os mineradores de recuperação fornecem dados quando os usuários precisam e recebem recompensas.
Este modelo apresenta um potencial espaço para fraudes. Os mineradores de armazenamento podem, após fornecer espaço de armazenamento, preencher dados lixo para obter recompensas. Como esses dados lixo não serão recuperados, mesmo que sejam perdidos, não acionam o mecanismo de penalização. Isso permite que os mineradores de armazenamento removam os dados lixo e repitam este processo. O consenso de prova de replicação do Filecoin só pode garantir que os dados dos usuários não sejam excluídos de forma não autorizada, mas não pode impedir que os mineradores preencham dados lixo.
A operação do Filecoin depende em grande medida do investimento contínuo dos mineradores na economia dos tokens, e não da demanda real dos usuários finais por armazenamento descentralizado. Embora o projeto continue a ser iterado, nesta fase, a construção do ecossistema do Filecoin se alinha mais à definição de projetos de armazenamento "lógica de mineração" do que "impulsionado por aplicações".
Arweave: ganhos e perdas do longo prazo
Se o objetivo do Filecoin é construir uma "nuvem de dados" descentralizada que seja incentivada e verificável, então o Arweave caminha para o outro extremo no campo do armazenamento: fornecer capacidade de armazenamento permanente para os dados. O Arweave não tenta criar uma plataforma de computação distribuída; todo o seu sistema se baseia em uma hipótese central - dados importantes devem ser armazenados uma única vez e preservados para sempre na rede. Esse extremismo de longo prazo faz com que o Arweave, desde o mecanismo até o modelo de incentivos, passando pelas necessidades de hardware até a perspectiva narrativa, seja muito diferente do Filecoin.
Arweave usa o Bitcoin como objeto de estudo, tentando otimizar constantemente a rede de armazenamento permanente ao longo de longos períodos de tempo, medidos em anos. Arweave não se preocupa com marketing, nem com concorrentes ou tendências de mercado. Foca apenas na iteração da arquitetura da rede, mesmo que ninguém se interesse, pois essa é a essência da equipe de desenvolvimento da Arweave: o longo prazo. Graças ao longo prazo, Arweave foi muito procurada no último mercado em alta; e também por causa do longo prazo, mesmo que tenha caído para o fundo do poço, Arweave ainda pode sobreviver a várias rodadas de mercados em alta e em baixa. Mas será que no futuro a Descentralização do armazenamento ainda terá um espaço para a Arweave? O valor da existência do armazenamento permanente só pode ser provado pelo tempo.
Desde a versão 1.5 até à recente versão 2.9, embora a Arweave tenha perdido a atenção do mercado, tem-se dedicado a permitir que um maior número de mineradores participe na rede com o mínimo custo, e a incentivar os mineradores a armazenar dados ao máximo, melhorando continuamente a robustez de toda a rede. A Arweave está ciente de que não corresponde às preferências do mercado, por isso adotou uma abordagem conservadora, não abraçando a comunidade de mineradores, com o desenvolvimento ecológico completamente estagnado, atualizando a mainnet com o mínimo custo, enquanto continua a reduzir as barreiras de hardware, sem comprometer a segurança da rede.
Revisão do caminho de atualização 1.5-2.9
A versão 1.5 do Arweave expôs uma vulnerabilidade que permite aos mineradores dependerem do empilhamento de GPUs em vez de armazenamento real para otimizar a probabilidade de criação de blocos. Para conter essa tendência, a versão 1.7 introduziu o algoritmo RandomX, limitando o uso de poder computacional especializado e exigindo a participação de CPUs gerais na mineração, enfraquecendo assim a centralização do poder computacional.
A versão 2.0 utiliza SPoA, transforma a prova de dados em um caminho simplificado da estrutura da árvore de Merkle e introduz transações de formato 2 para reduzir a carga de sincronização. Esta arquitetura alivia a pressão sobre a largura de banda da rede e aumenta significativamente a capacidade de colaboração dos nós. No entanto, alguns mineiros ainda podem contornar a responsabilidade de manter dados reais por meio de estratégias de pools de armazenamento centralizados de alta velocidade.
Para corrigir essa discrepância, a versão 2.4 lançou o mecanismo SPoRA, introduzindo índices globais e acesso aleatório lento ao hash, exigindo que os mineradores possuam verdadeiramente os blocos de dados para participar da criação de blocos válidos, enfraquecendo assim o efeito de acumulação de poder computacional. Como resultado, os mineradores começaram a se concentrar na velocidade de acesso ao armazenamento, impulsionando a aplicação de SSDs e dispositivos de leitura e gravação de alta velocidade. A versão 2.6 introduziu o controle da cadência de criação de blocos por meio de uma cadeia de hashes, equilibrando os benefícios marginais de dispositivos de alto desempenho, proporcionando um espaço justo de participação para mineradores de pequeno e médio porte.
Versões subsequentes reforçam ainda mais a capacidade de colaboração em rede e a diversidade de armazenamento: 2.7 adiciona mineração cooperativa e mecanismo de pool, aumentando a competitividade dos pequenos mineradores; 2.8 introduz o mecanismo de empacotamento composto, permitindo que dispositivos de baixa velocidade e alta capacidade participem de forma flexível; 2.9 introduz um novo processo de empacotamento no formato replica_2_9, aumentando significativamente a eficiência e reduzindo a dependência computacional, completando o ciclo do modelo de mineração orientado por dados.
De uma forma geral, o caminho de atualização da Arweave demonstra claramente a sua estratégia de longo prazo orientada para o armazenamento: enquanto resiste continuamente à tendência de concentração de poder computacional, continua a reduzir as barreiras de entrada, garantindo a viabilidade da operação do protocolo a longo prazo.
Walrus: Hype ou inovação no armazenamento de dados quentes?
A abordagem de design do Walrus é completamente diferente da do Filecoin e do Arweave. O ponto de partida do Filecoin é criar um sistema de armazenamento descentralizado e verificável, com o custo do armazenamento de dados frios; o objetivo do Arweave é construir uma biblioteca de Alexandria on-chain que possa armazenar dados permanentemente, com o custo de cenários de aplicação limitados; enquanto o núcleo do Walrus é otimizar a eficiência de custo do armazenamento de dados quentes.
Modificação mágica do código de correção: inovação de custo ou uma nova garrafa para um vinho velho?
No design de custos de armazenamento, o Walrus acredita que os custos de armazenamento do Filecoin e do Arweave são irracionais. Ambos utilizam uma arquitetura de replicação completa, cuja principal vantagem é que cada nó possui uma cópia completa, oferecendo uma forte capacidade de tolerância a falhas e independência entre nós. Essa arquitetura garante que, mesmo que alguns nós estejam offline, a rede ainda mantenha a disponibilidade dos dados. No entanto, isso também significa que o sistema requer redundância de múltiplas cópias para manter a robustez, o que eleva os custos de armazenamento. Especialmente no design do Arweave, o mecanismo de consenso em si incentiva o armazenamento redundante pelos nós, para aumentar a segurança dos dados. Em comparação, o Filecoin é mais flexível no controle de custos, mas o custo disso é que parte do armazenamento de baixo custo pode ter um risco mais alto de perda de dados. O Walrus tenta encontrar um equilíbrio entre os dois, seu mecanismo controla os custos de replicação enquanto aumenta a disponibilidade através de uma abordagem de redundância estruturada, estabelecendo assim um novo caminho de compromisso entre a disponibilidade dos dados e a eficiência de custos.
A Redstuff criada pela Walrus é a tecnologia chave para reduzir a redundância de nós, originando-se da codificação Reed-Solomon(RS). A codificação RS é um algoritmo tradicional de códigos de correção, que pode duplicar conjuntos de dados adicionando fragmentos redundantes, para reconstruir os dados originais. Desde CD-ROMs até comunicações via satélite e códigos QR, é amplamente utilizada na vida cotidiana.
Códigos de correção de erros permitem que os usuários obtenham um bloco de dados ( como 1MB ) e, em seguida, "ampliem-no" para 2MB, onde o adicional de 1MB é dados de correção de erros especiais. Se qualquer byte no bloco estiver perdido, os usuários podem facilmente recuperar esses bytes através do código. Mesmo que até 1MB de dados sejam perdidos, o bloco inteiro ainda pode ser recuperado. A mesma técnica permite que os computadores leiam todos os dados em CDs-ROM danificados.
Atualmente, o mais utilizado é o código RS. A forma de implementação começa com k blocos de informação, constrói um polinómio relacionado e avalia-o em diferentes coordenadas x para obter os blocos codificados. Usando códigos de correção de erros RS, a possibilidade de amostragem aleatória de grandes blocos de dados perdidos é muito pequena.
Por exemplo: dividir um arquivo em 6 blocos de dados e 4 blocos de verificação, totalizando 10 partes. Basta manter quaisquer 6 partes para poder restaurar completamente os dados originais.
Vantagens: forte capacidade de tolerância a falhas, amplamente utilizado em CD/DVD, arrays de discos rígidos à prova de falhas (RAID) e sistemas de armazenamento em nuvem ( como Azure Storage, Facebook F4).
Desvantagens: a decodificação é complexa, com custos elevados; não é adequada para cenários de dados que mudam frequentemente. Portanto, é geralmente utilizada para recuperação e agendamento de dados em ambientes centralizados fora da cadeia.
Na Descentralização, o Storj e o Sia ajustaram a codificação RS tradicional para se adequar às necessidades reais das redes distribuídas. O Walrus também apresentou sua própria variação - o algoritmo de codificação RedStuff, para alcançar um mecanismo de armazenamento redundante mais baixo em custo e mais flexível.
Qual é a principal característica do Redstuff? Através da melhoria do algoritmo de codificação de correção de erros, o Walrus consegue codificar rapidamente e de forma robusta blocos de dados não estruturados em fragmentos menores, que são armazenados de forma distribuída na rede de nós de armazenamento. Mesmo que até dois terços dos fragmentos se percam, é possível reconstruir rapidamente o bloco de dados original usando fragmentos parciais. Isso se torna possível mantendo o fator de replicação entre 4 e 5 vezes.
Portanto, é razoável definir o Walrus como um protocolo leve de redundância e recuperação redesenhado em torno de um cenário de Descentralização. Em comparação com os tradicionais códigos de correção de erros (, como Reed-Solomon ), o RedStuff não busca mais a consistência matemática rigorosa, mas faz compromissos realistas em relação à distribuição de dados, verificação de armazenamento e custo computacional. Este modelo abandona o mecanismo de decodificação instantânea necessário para o agendamento centralizado, substituindo-o pela verificação de Proof na cadeia para validar se os nós possuem cópias específicas de dados, adaptando-se assim a uma estrutura de rede mais dinâmica e marginalizada.
O núcleo do design do RedStuff é dividir os dados em duas categorias: fatias principais e fatias secundárias. As fatias principais são usadas para recuperar os dados originais, cuja geração e distribuição estão sujeitas a restrições rigorosas, com um limite de recuperação de f+1, e requerem 2f+1 assinaturas como endosse de disponibilidade; as fatias secundárias são geradas por meio de operações simples, como combinações XOR, e têm como objetivo fornecer tolerância a falhas elástica, melhorando a robustez geral do sistema. Essa estrutura, essencialmente, reduz a exigência de consistência dos dados - permitindo que diferentes nós armazenem temporariamente versões diferentes dos dados, enfatizando o caminho prático da "consistência final". Embora semelhante aos requisitos mais flexíveis para blocos de retrocesso em sistemas como Arweave, ao reduzir a rede.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
14 gostos
Recompensa
14
7
Republicar
Partilhar
Comentar
0/400
ShibaSunglasses
· 08-10 22:54
FIL a cair, quando voltará?
Ver originalResponder0
DEXRobinHood
· 08-10 02:06
Eu também joguei fil, não serve para nada.
Ver originalResponder0
GateUser-1a2ed0b9
· 08-10 01:08
Já não tenho interesse em discutir armazenamento.
Ver originalResponder0
ForkPrince
· 08-10 01:05
Ainda está muito longe de se tornar comum.
Ver originalResponder0
SurvivorshipBias
· 08-10 01:01
O antigo projeto não tem moeda para jogar novamente.
Evolução do armazenamento descentralizado: da Filecoin à iteração tecnológica e insights da indústria da Shelby
Descentralização de armazenamento: a evolução do conceito à prática
O armazenamento foi uma das principais áreas do setor de blockchain. O Filecoin, como o projeto líder da última corrida de alta, teve um valor de mercado que ultrapassou os 10 bilhões de dólares. O Arweave, com armazenamento permanente como seu ponto de venda, alcançou um valor de mercado máximo de 3,5 bilhões de dólares. No entanto, à medida que a disponibilidade de armazenamento de dados frios foi colocada em dúvida, o futuro do armazenamento descentralizado ficou ofuscado. Até a aparição do Walrus que reacendeu o interesse, e o projeto Shelby, lançado pela Aptos e Jump Crypto, elevou o armazenamento de dados quentes a novas alturas. Este artigo analisará as trajetórias de desenvolvimento dos quatro projetos: Filecoin, Arweave, Walrus e Shelby, explorando a evolução do armazenamento descentralizado e tentando responder a esta pergunta: quanto tempo levará até que o armazenamento descentralizado se torne realmente popular?
Filecoin: o nome do armazenamento, a realidade da mineração
Filecoin é um dos primeiros projetos de blockchain a emergir, com seu desenvolvimento focado na Descentralização. Filecoin combina armazenamento com Descentralização, levantando questões de confiança em provedores de serviços de armazenamento de dados centralizados. No entanto, os sacrifícios feitos para alcançar a Descentralização tornaram-se pontos problemáticos que projetos posteriores como Arweave e Walrus tentaram resolver. Para entender por que Filecoin é essencialmente uma moeda de mineração, é necessário compreender as limitações objetivas da sua tecnologia subjacente, IPFS, no processamento de dados quentes.
IPFS:Descentralização da arquitetura de gargalos de transmissão
IPFS(Sistema de Ficheiros Interplanetário) surgiu por volta de 2015, com o objetivo de revolucionar o protocolo HTTP tradicional através da endereçamento de conteúdo. No entanto, a maior desvantagem do IPFS é a velocidade de obtenção extremamente lenta. Hoje em dia, quando os serviços de dados tradicionais podem alcançar tempos de resposta na ordem dos milissegundos, obter um ficheiro através do IPFS ainda leva dezenas de segundos, o que limita severamente a sua promoção e aplicação prática.
O protocolo P2P subjacente do IPFS é principalmente adequado para "dados frios", ou seja, conteúdos estáticos que não mudam com frequência, como vídeos, imagens e documentos. No entanto, ao lidar com dados quentes, como páginas da web dinâmicas, jogos online ou aplicações de inteligência artificial, o protocolo P2P não apresenta vantagens significativas em relação a uma CDN tradicional.
Embora o IPFS não seja uma blockchain em si, o design do gráfico acíclico direcionado (DAG) que ele adota está altamente alinhado com muitas blockchains e protocolos Web3, tornando-o naturalmente adequado como uma estrutura de construção subjacente para blockchains. Portanto, mesmo na ausência de valor prático, já é suficiente como uma estrutura subjacente que suporta a narrativa da blockchain. Projetos iniciais precisavam apenas de uma estrutura funcional para iniciar grandes planos, mas com o desenvolvimento do Filecoin, as limitações trazidas pelo IPFS começaram a impedir seu progresso.
Lógica das moedas mineradas sob o armazenamento
O IPFS foi inicialmente concebido para que os usuários, ao armazenar dados, pudessem também fazer parte da rede de armazenamento. No entanto, na ausência de incentivos econômicos, é difícil para os usuários participarem ativamente deste sistema, quanto mais se tornarem nós de armazenamento ativos. Isso significa que a maioria das pessoas apenas armazenará arquivos no IPFS, sem contribuir com seu próprio espaço de armazenamento ou armazenar arquivos de outros. É nesse contexto que o Filecoin surgiu.
O modelo econômico do token Filecoin inclui principalmente três papéis: os usuários pagam taxas para armazenar dados; os mineradores de armazenamento recebem recompensas em tokens por armazenar os dados dos usuários; os mineradores de recuperação fornecem dados quando os usuários precisam e recebem recompensas.
Este modelo apresenta um potencial espaço para fraudes. Os mineradores de armazenamento podem, após fornecer espaço de armazenamento, preencher dados lixo para obter recompensas. Como esses dados lixo não serão recuperados, mesmo que sejam perdidos, não acionam o mecanismo de penalização. Isso permite que os mineradores de armazenamento removam os dados lixo e repitam este processo. O consenso de prova de replicação do Filecoin só pode garantir que os dados dos usuários não sejam excluídos de forma não autorizada, mas não pode impedir que os mineradores preencham dados lixo.
A operação do Filecoin depende em grande medida do investimento contínuo dos mineradores na economia dos tokens, e não da demanda real dos usuários finais por armazenamento descentralizado. Embora o projeto continue a ser iterado, nesta fase, a construção do ecossistema do Filecoin se alinha mais à definição de projetos de armazenamento "lógica de mineração" do que "impulsionado por aplicações".
Arweave: ganhos e perdas do longo prazo
Se o objetivo do Filecoin é construir uma "nuvem de dados" descentralizada que seja incentivada e verificável, então o Arweave caminha para o outro extremo no campo do armazenamento: fornecer capacidade de armazenamento permanente para os dados. O Arweave não tenta criar uma plataforma de computação distribuída; todo o seu sistema se baseia em uma hipótese central - dados importantes devem ser armazenados uma única vez e preservados para sempre na rede. Esse extremismo de longo prazo faz com que o Arweave, desde o mecanismo até o modelo de incentivos, passando pelas necessidades de hardware até a perspectiva narrativa, seja muito diferente do Filecoin.
Arweave usa o Bitcoin como objeto de estudo, tentando otimizar constantemente a rede de armazenamento permanente ao longo de longos períodos de tempo, medidos em anos. Arweave não se preocupa com marketing, nem com concorrentes ou tendências de mercado. Foca apenas na iteração da arquitetura da rede, mesmo que ninguém se interesse, pois essa é a essência da equipe de desenvolvimento da Arweave: o longo prazo. Graças ao longo prazo, Arweave foi muito procurada no último mercado em alta; e também por causa do longo prazo, mesmo que tenha caído para o fundo do poço, Arweave ainda pode sobreviver a várias rodadas de mercados em alta e em baixa. Mas será que no futuro a Descentralização do armazenamento ainda terá um espaço para a Arweave? O valor da existência do armazenamento permanente só pode ser provado pelo tempo.
Desde a versão 1.5 até à recente versão 2.9, embora a Arweave tenha perdido a atenção do mercado, tem-se dedicado a permitir que um maior número de mineradores participe na rede com o mínimo custo, e a incentivar os mineradores a armazenar dados ao máximo, melhorando continuamente a robustez de toda a rede. A Arweave está ciente de que não corresponde às preferências do mercado, por isso adotou uma abordagem conservadora, não abraçando a comunidade de mineradores, com o desenvolvimento ecológico completamente estagnado, atualizando a mainnet com o mínimo custo, enquanto continua a reduzir as barreiras de hardware, sem comprometer a segurança da rede.
Revisão do caminho de atualização 1.5-2.9
A versão 1.5 do Arweave expôs uma vulnerabilidade que permite aos mineradores dependerem do empilhamento de GPUs em vez de armazenamento real para otimizar a probabilidade de criação de blocos. Para conter essa tendência, a versão 1.7 introduziu o algoritmo RandomX, limitando o uso de poder computacional especializado e exigindo a participação de CPUs gerais na mineração, enfraquecendo assim a centralização do poder computacional.
A versão 2.0 utiliza SPoA, transforma a prova de dados em um caminho simplificado da estrutura da árvore de Merkle e introduz transações de formato 2 para reduzir a carga de sincronização. Esta arquitetura alivia a pressão sobre a largura de banda da rede e aumenta significativamente a capacidade de colaboração dos nós. No entanto, alguns mineiros ainda podem contornar a responsabilidade de manter dados reais por meio de estratégias de pools de armazenamento centralizados de alta velocidade.
Para corrigir essa discrepância, a versão 2.4 lançou o mecanismo SPoRA, introduzindo índices globais e acesso aleatório lento ao hash, exigindo que os mineradores possuam verdadeiramente os blocos de dados para participar da criação de blocos válidos, enfraquecendo assim o efeito de acumulação de poder computacional. Como resultado, os mineradores começaram a se concentrar na velocidade de acesso ao armazenamento, impulsionando a aplicação de SSDs e dispositivos de leitura e gravação de alta velocidade. A versão 2.6 introduziu o controle da cadência de criação de blocos por meio de uma cadeia de hashes, equilibrando os benefícios marginais de dispositivos de alto desempenho, proporcionando um espaço justo de participação para mineradores de pequeno e médio porte.
Versões subsequentes reforçam ainda mais a capacidade de colaboração em rede e a diversidade de armazenamento: 2.7 adiciona mineração cooperativa e mecanismo de pool, aumentando a competitividade dos pequenos mineradores; 2.8 introduz o mecanismo de empacotamento composto, permitindo que dispositivos de baixa velocidade e alta capacidade participem de forma flexível; 2.9 introduz um novo processo de empacotamento no formato replica_2_9, aumentando significativamente a eficiência e reduzindo a dependência computacional, completando o ciclo do modelo de mineração orientado por dados.
De uma forma geral, o caminho de atualização da Arweave demonstra claramente a sua estratégia de longo prazo orientada para o armazenamento: enquanto resiste continuamente à tendência de concentração de poder computacional, continua a reduzir as barreiras de entrada, garantindo a viabilidade da operação do protocolo a longo prazo.
Walrus: Hype ou inovação no armazenamento de dados quentes?
A abordagem de design do Walrus é completamente diferente da do Filecoin e do Arweave. O ponto de partida do Filecoin é criar um sistema de armazenamento descentralizado e verificável, com o custo do armazenamento de dados frios; o objetivo do Arweave é construir uma biblioteca de Alexandria on-chain que possa armazenar dados permanentemente, com o custo de cenários de aplicação limitados; enquanto o núcleo do Walrus é otimizar a eficiência de custo do armazenamento de dados quentes.
Modificação mágica do código de correção: inovação de custo ou uma nova garrafa para um vinho velho?
No design de custos de armazenamento, o Walrus acredita que os custos de armazenamento do Filecoin e do Arweave são irracionais. Ambos utilizam uma arquitetura de replicação completa, cuja principal vantagem é que cada nó possui uma cópia completa, oferecendo uma forte capacidade de tolerância a falhas e independência entre nós. Essa arquitetura garante que, mesmo que alguns nós estejam offline, a rede ainda mantenha a disponibilidade dos dados. No entanto, isso também significa que o sistema requer redundância de múltiplas cópias para manter a robustez, o que eleva os custos de armazenamento. Especialmente no design do Arweave, o mecanismo de consenso em si incentiva o armazenamento redundante pelos nós, para aumentar a segurança dos dados. Em comparação, o Filecoin é mais flexível no controle de custos, mas o custo disso é que parte do armazenamento de baixo custo pode ter um risco mais alto de perda de dados. O Walrus tenta encontrar um equilíbrio entre os dois, seu mecanismo controla os custos de replicação enquanto aumenta a disponibilidade através de uma abordagem de redundância estruturada, estabelecendo assim um novo caminho de compromisso entre a disponibilidade dos dados e a eficiência de custos.
A Redstuff criada pela Walrus é a tecnologia chave para reduzir a redundância de nós, originando-se da codificação Reed-Solomon(RS). A codificação RS é um algoritmo tradicional de códigos de correção, que pode duplicar conjuntos de dados adicionando fragmentos redundantes, para reconstruir os dados originais. Desde CD-ROMs até comunicações via satélite e códigos QR, é amplamente utilizada na vida cotidiana.
Códigos de correção de erros permitem que os usuários obtenham um bloco de dados ( como 1MB ) e, em seguida, "ampliem-no" para 2MB, onde o adicional de 1MB é dados de correção de erros especiais. Se qualquer byte no bloco estiver perdido, os usuários podem facilmente recuperar esses bytes através do código. Mesmo que até 1MB de dados sejam perdidos, o bloco inteiro ainda pode ser recuperado. A mesma técnica permite que os computadores leiam todos os dados em CDs-ROM danificados.
Atualmente, o mais utilizado é o código RS. A forma de implementação começa com k blocos de informação, constrói um polinómio relacionado e avalia-o em diferentes coordenadas x para obter os blocos codificados. Usando códigos de correção de erros RS, a possibilidade de amostragem aleatória de grandes blocos de dados perdidos é muito pequena.
Por exemplo: dividir um arquivo em 6 blocos de dados e 4 blocos de verificação, totalizando 10 partes. Basta manter quaisquer 6 partes para poder restaurar completamente os dados originais.
Vantagens: forte capacidade de tolerância a falhas, amplamente utilizado em CD/DVD, arrays de discos rígidos à prova de falhas (RAID) e sistemas de armazenamento em nuvem ( como Azure Storage, Facebook F4).
Desvantagens: a decodificação é complexa, com custos elevados; não é adequada para cenários de dados que mudam frequentemente. Portanto, é geralmente utilizada para recuperação e agendamento de dados em ambientes centralizados fora da cadeia.
Na Descentralização, o Storj e o Sia ajustaram a codificação RS tradicional para se adequar às necessidades reais das redes distribuídas. O Walrus também apresentou sua própria variação - o algoritmo de codificação RedStuff, para alcançar um mecanismo de armazenamento redundante mais baixo em custo e mais flexível.
Qual é a principal característica do Redstuff? Através da melhoria do algoritmo de codificação de correção de erros, o Walrus consegue codificar rapidamente e de forma robusta blocos de dados não estruturados em fragmentos menores, que são armazenados de forma distribuída na rede de nós de armazenamento. Mesmo que até dois terços dos fragmentos se percam, é possível reconstruir rapidamente o bloco de dados original usando fragmentos parciais. Isso se torna possível mantendo o fator de replicação entre 4 e 5 vezes.
Portanto, é razoável definir o Walrus como um protocolo leve de redundância e recuperação redesenhado em torno de um cenário de Descentralização. Em comparação com os tradicionais códigos de correção de erros (, como Reed-Solomon ), o RedStuff não busca mais a consistência matemática rigorosa, mas faz compromissos realistas em relação à distribuição de dados, verificação de armazenamento e custo computacional. Este modelo abandona o mecanismo de decodificação instantânea necessário para o agendamento centralizado, substituindo-o pela verificação de Proof na cadeia para validar se os nós possuem cópias específicas de dados, adaptando-se assim a uma estrutura de rede mais dinâmica e marginalizada.
O núcleo do design do RedStuff é dividir os dados em duas categorias: fatias principais e fatias secundárias. As fatias principais são usadas para recuperar os dados originais, cuja geração e distribuição estão sujeitas a restrições rigorosas, com um limite de recuperação de f+1, e requerem 2f+1 assinaturas como endosse de disponibilidade; as fatias secundárias são geradas por meio de operações simples, como combinações XOR, e têm como objetivo fornecer tolerância a falhas elástica, melhorando a robustez geral do sistema. Essa estrutura, essencialmente, reduz a exigência de consistência dos dados - permitindo que diferentes nós armazenem temporariamente versões diferentes dos dados, enfatizando o caminho prático da "consistência final". Embora semelhante aos requisitos mais flexíveis para blocos de retrocesso em sistemas como Arweave, ao reduzir a rede.