AI e DePIN: Análise do surgimento de redes GPU descentralizadas e tendências futuras

A interseção entre AI e DePIN: a ascensão das redes GPU descentralizadas

Desde 2023, a IA e o DePIN tornaram-se tendências populares no domínio do Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo foca na interseção entre os dois, explorando o desenvolvimento dos protocolos relacionados.

Na pilha de tecnologia de IA, a rede DePIN fornece utilidade para a IA através de recursos computacionais. O desenvolvimento de grandes empresas de tecnologia levou à escassez de GPUs, dificultando que outros desenvolvedores obtivessem GPUs suficientes para computação. Isso muitas vezes força os desenvolvedores a escolher provedores de nuvem centralizados, mas devido à necessidade de assinar contratos de hardware de alto desempenho de longo prazo e inflexíveis, a eficiência é baixa.

DePIN fornece essencialmente uma alternativa mais flexível e económica, incentivando a contribuição de recursos através de recompensas em tokens. No campo da IA, o DePIN terceiriza recursos de GPU de proprietários individuais para centros de dados, formando uma oferta unificada para usuários que precisam de acesso a hardware. Essas redes oferecem não apenas personalização e acesso sob demanda para desenvolvedores que precisam de capacidade de computação, mas também uma renda extra para proprietários de GPU.

Existem várias redes AI DePIN no mercado, e identificar as suas diferenças e encontrar a rede adequada pode ser desafiador. A seguir, iremos explorar o papel de cada protocolo, os seus objetivos e os resultados concretos já alcançados.

AI e o ponto de interseção do DePIN

Visão Geral da Rede DePIN de IA

Cada projeto mencionado aqui tem um objetivo semelhante - rede de computação GPU. Esta seção visa explorar os destaques, os pontos focais do mercado e as conquistas de cada projeto. Ao entender sua infraestrutura e produtos-chave, podemos analisar profundamente as diferenças entre eles.

Render é um pioneiro na rede P2P que oferece capacidade de computação GPU, inicialmente focado em renderização gráfica para criação de conteúdo, e depois expandiu seu escopo para incluir várias tarefas de computação AI, desde campos de radiação neural (NeRF) até AI gerativa.

Akash posiciona-se como uma alternativa ao "supernuvem" de plataformas tradicionais de armazenamento, computação GPU e CPU como a AWS(. Utilizando ferramentas amigáveis para desenvolvedores, como a plataforma de contêineres Akash e nós de computação geridos pelo Kubernetes, consegue implantar software de forma contínua em diferentes ambientes, permitindo executar qualquer aplicação nativa da nuvem.

io.net fornece acesso a clusters de GPU em nuvem distribuídos, que são especializados em casos de uso de IA e ML. Ele agrega GPUs de data centers, mineradores de criptomoedas e outras redes descentralizadas.

Gensyn oferece capacidade de computação GPU focada em aprendizado de máquina e aprendizado profundo. Afirma ter alcançado um mecanismo de validação mais eficiente, combinando conceitos como prova de aprendizado para validação de trabalho, protocolos de localização precisa baseados em gráficos para reexecução de validação de trabalho, e jogos de incentivo envolvendo a participação e redução dos provedores de computação.

Aethir é especializado em GPUs empresariais, focando em áreas de computação intensiva, principalmente inteligência artificial, aprendizado de máquina )ML(, jogos em nuvem, entre outros. Os contêineres na sua rede atuam como pontos finais virtuais para executar aplicações baseadas em nuvem, transferindo a carga de trabalho dos dispositivos locais para os contêineres, a fim de proporcionar uma experiência de baixa latência.

Phala Network atua como a camada de execução para soluções de IA Web3. A sua blockchain é uma solução de computação em nuvem sem necessidade de confiança, projetada para lidar com questões de privacidade através do uso do seu ambiente de execução confiável )TEE(. A sua camada de execução não é utilizada como a camada de computação para modelos de IA, mas sim para permitir que agentes de IA sejam controlados por contratos inteligentes na blockchain.

![AI e o ponto de interseção da DePIN])https://img-cdn.gateio.im/webp-social/moments-68a395d50be4ab07fbc575dd54441164.webp(

Comparação de Projetos

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | Inteligência Artificial, Jogos em Nuvem e Telecomunicações | Execução de IA em Cadeia | | Tipo de tarefa de IA | Inferência | Equilibrado | Equilibrado | Treinamento | Treinamento | Execução | | Preço de trabalho | Preço baseado em desempenho | Leilão reverso | Preço de mercado | Preço de mercado | Sistema de licitação | Cálculo de direitos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidade de Dados | Criptografia&Hash | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE | | Custos de Trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% custos de reserva | Custos baixos | 20% por sessão | Proporcional ao montante em staking | | Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia de Intermediação | | Prova de Conclusão | - | - | Prova de Bloqueio Temporal | Prova de Aprendizagem | Prova de Trabalho de Renderização | Prova TEE | | Garantia de Qualidade | Controvérsia | - | - | Verificador e Denunciante | Nó de Verificação | Prova Remota | | GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |

) importância

Disponibilidade de cluster e computação paralela

A estrutura de computação distribuída implementou um cluster de GPU, oferecendo um treinamento mais eficiente sem impactar a precisão do modelo, ao mesmo tempo que增强a escalabilidade. Treinar modelos de IA complexos requer uma poderosa capacidade de computação, que geralmente deve depender da computação distribuída para atender a essas necessidades. Do ponto de vista intuitivo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilhões de parâmetros, sendo treinado em 3-4 meses utilizando cerca de 25.000 GPUs Nvidia A100 em 128 clusters.

Anteriormente, Render e Akash apenas ofereciam GPUs de uso único, o que poderia limitar a demanda de mercado por GPUs. No entanto, a maioria dos projetos focados agora integrou clusters para computação paralela. A io.net está colaborando com outros projetos como Render, Filecoin e Aethir para incorporar mais GPUs à sua rede, e já implementou com sucesso mais de 3.800 clusters no primeiro trimestre de 2024. Embora a Render não suporte clusters, seu funcionamento é semelhante ao de clusters, decompondo um único quadro em vários nós diferentes para processar simultaneamente quadros de diferentes intervalos. A Phala atualmente suporta apenas CPU, mas permite a clusterização de trabalhadores de CPU.

É muito importante integrar a estrutura de clusters na rede de fluxos de trabalho de IA, mas o número e o tipo de GPUs em cluster necessários para atender às necessidades dos desenvolvedores de IA é uma questão separada.

Privacidade de Dados

Desenvolver modelos de IA requer o uso de grandes conjuntos de dados, que podem vir de várias fontes e ter formas diversas. Conjuntos de dados sensíveis, como registos médicos pessoais e dados financeiros de utilizadores, podem enfrentar o risco de exposição aos fornecedores de modelos. A Samsung proibiu internamente o uso do ChatGPT, preocupada com a possibilidade de códigos sensíveis serem carregados na plataforma e infringirem a privacidade, e o incidente de vazamento de 38TB de dados privados da Microsoft destaca ainda mais a importância de adotar medidas de segurança adequadas ao usar IA. Portanto, ter várias abordagens de privacidade de dados é crucial para devolver o controle dos dados aos fornecedores de dados.

A maioria dos projetos abrangidos utiliza alguma forma de criptografia de dados para proteger a privacidade dos dados. A criptografia de dados garante que a transmissão de dados entre o provedor de dados e o provedor de modelos ### e o receptor de dados ( na rede esteja protegida. O Render utiliza criptografia e processamento hash ao publicar os resultados de renderização de volta à rede, enquanto o io.net e o Gensyn adotam alguma forma de criptografia de dados. O Akash usa autenticação mTLS, permitindo que apenas os provedores escolhidos pelos inquilinos recebam os dados.

No entanto, a io.net lançou recentemente uma colaboração com a Mind Network para introduzir a criptografia homomórfica completa )FHE(, permitindo o processamento de dados criptografados sem a necessidade de os descriptografar primeiro. Ao permitir que os dados sejam transmitidos de forma segura para fins de treinamento sem revelar a identidade e o conteúdo dos dados, esta inovação pode garantir a privacidade dos dados de forma mais eficaz do que as tecnologias de criptografia existentes.

A Phala Network introduziu o TEE, que é uma área de segurança conectada ao processador principal do dispositivo. Através desse mecanismo de isolamento, ele pode impedir que processos externos acessem ou modifiquem dados, independentemente do nível de permissão, mesmo para indivíduos que têm acesso físico à máquina. Além do TEE, ele também combinou o uso de zk-proofs em seu validador zkDCAP e na interface de linha de comando jtee, para integrar programas com o RiscZero zkVM.

![AI e o ponto de interseção do DePIN])https://img-cdn.gateio.im/webp-social/moments-8f83f1affbdfd92f33bc47afe8928c5c.webp(

) Prova de Cálculo Completo e Inspeção de Qualidade

Esses GPUs oferecidos pelos projetos podem fornecer capacidade de computação para uma variedade de serviços. Como esses serviços abrangem uma ampla gama, desde renderização de gráficos até computação de IA, a qualidade final de tais tarefas pode não estar sempre de acordo com os padrões do usuário. Pode-se usar a forma de prova de conclusão para indicar que o GPU específico alugado pelo usuário foi realmente utilizado para executar os serviços requeridos, e a verificação de qualidade é benéfica para os usuários que solicitam a conclusão de tais trabalhos.

Após a conclusão do cálculo, tanto a Gensyn quanto a Aethir gerarão provas para indicar que o trabalho foi concluído, enquanto a prova do io.net indica que o desempenho da GPU alugada foi totalmente utilizado e sem problemas. A Gensyn e a Aethir realizarão uma verificação de qualidade dos cálculos concluídos. Para a Gensyn, ela utiliza validadores para reexecutar parte do conteúdo da prova gerada para verificar a correspondência com a prova, enquanto o denunciante atua como uma camada adicional de verificação para os validadores. Ao mesmo tempo, a Aethir utiliza nós de verificação para determinar a qualidade do serviço, punindo serviços abaixo do padrão. A Render recomenda o uso de um processo de resolução de disputas; se o comitê de revisão identificar problemas com um nó, esse nó será penalizado. Após a conclusão da Phala, será gerada uma prova TEE, garantindo que o agente de IA execute as operações necessárias na cadeia.

![AI e o ponto de interseção do DePIN]###https://img-cdn.gateio.im/webp-social/moments-df4f88879b53c4aa604b248fc9ff393a.webp(

Dados Estatísticos de Hardware

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Número de GPUs | 5600 | 384 | 38177 | - | 40000+ | - | | Número de CPUs | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 quantidade | - | 157 | 2330 | - | 2000+ | - | | Custo H100/hora | - | $1.46 | $1.19 | - | - | - | | Custo A100/hora | - | $1.37 | $1.50 | $0.55 ) previsto ( | $0.33 ) previsto ( | - |

) Requisitos de GPU de alto desempenho

Devido ao fato de que o treinamento de modelos de IA requer GPUs com desempenho ideal, há uma tendência para o uso de GPUs como a A100 e a H100 da Nvidia. Embora a última tenha um preço elevado no mercado, ela oferece a melhor qualidade. A A100 não só pode treinar todas as cargas de trabalho, mas também pode completar o treinamento a uma velocidade mais rápida, o que apenas demonstra a importância que o mercado atribui a este tipo de hardware. Como a performance de inferência da H100 é quatro vezes mais rápida do que a da A100, ela se tornou a GPU preferida, especialmente para grandes empresas que estão treinando seus próprios LLMs.

Para os fornecedores de mercado de GPU descentralizados, competir com os pares do Web2 exige não apenas preços mais baixos, mas também a satisfação da demanda real do mercado. Em 2023, a Nvidia entregou mais de 500.000 unidades H100 a grandes empresas de tecnologia centralizadas, o que tornou caro e difícil obter o máximo possível de hardware equivalente para competir com grandes provedores de nuvem. Portanto, considerar a quantidade de hardware que esses projetos podem trazer para sua rede a um custo baixo é fundamental para expandir esses serviços para uma base de clientes maior.

Embora cada projeto tenha negócios na computação de IA e ML, eles diferem na capacidade de fornecer computação. Akash tem apenas um total de pouco mais de 150 unidades H100 e A100, enquanto io.net e Aethir obtiveram mais de 2000 unidades cada um. Normalmente, treinar um LLM ou modelo gerador do zero requer pelo menos 248 a mais de 2000 GPUs em um cluster, portanto, os dois últimos projetos são mais adequados para computação de modelos grandes.

De acordo com o tamanho do cluster necessário pelos desenvolvedores, os custos desses serviços de GPU descentralizados no mercado já são muito mais baixos do que os serviços de GPU centralizados. A Gensyn e a Aethir afirmam que é possível alugar hardware equivalente ao A100 por menos de 1 dólar por hora, mas isso ainda precisa ser provado ao longo do tempo.

Os clusters de GPU conectados à rede possuem uma grande quantidade de GPUs, com custos reduzidos por hora, mas em comparação com GPUs conectadas via NVLink,

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 6
  • Partilhar
Comentar
0/400
BearMarketMonkvip
· 4h atrás
Mais uma bolha de avaliação imaginária, deixando os investidores de retalho serem idiotas mais uma vez~
Ver originalResponder0
TokenGuruvip
· 10h atrás
Mineração fazer as pessoas de parvas, esta vez fazer as pessoas de parvas com as GPU.
Ver originalResponder0
ChainSpyvip
· 10h atrás
gpu bull run just arrived?
Ver originalResponder0
RumbleValidatorvip
· 10h atrás
Nem todos merecem a Descentralização, os Nós são a verdade.
Ver originalResponder0
Ser_Liquidatedvip
· 10h atrás
GPU suficiente para comer e beber, o investidor de retalho ainda se atreve a vender?
Ver originalResponder0
SolidityStrugglervip
· 10h atrás
Deixa de soprar, é só uma especulação.
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)