A evolução da indústria de IA e as perspectivas de integração com a Blockchain
A indústria de inteligência artificial fez progressos significativos recentemente, sendo considerada um motor chave da quarta revolução industrial. O surgimento de grandes modelos de linguagem melhorou significativamente a eficiência do trabalho em vários setores, com a Boston Consulting Group acreditando que o GPT aumentou a produtividade geral dos EUA em cerca de 20%. Ao mesmo tempo, a capacidade de generalização dos grandes modelos é vista como um novo paradigma de design de software, distinto da abordagem de codificação precisa do passado; agora, o design de software usa mais frequentemente estruturas de grandes modelos com maior capacidade de generalização, capazes de suportar uma gama mais ampla de entradas e saídas de modalidades. A tecnologia de aprendizado profundo trouxe uma nova onda de prosperidade para a indústria de IA, e essa onda está gradualmente se espalhando para a indústria de criptomoedas.
Este relatório irá explorar profundamente a trajetória de desenvolvimento da indústria de IA, a classificação de tecnologias e o impacto das tecnologias de aprendizado profundo na indústria. Vamos analisar o estado atual e as tendências de desenvolvimento da cadeia de suprimentos na área de aprendizado profundo, incluindo GPU, computação em nuvem, fontes de dados e dispositivos de borda. Ao mesmo tempo, também vamos explorar essencialmente a relação entre criptomoedas e a indústria de IA, e organizar a estrutura da cadeia de suprimentos de IA relacionada às criptomoedas.
Desenvolvimento da Indústria de IA
Desde o início da década de 1950, a indústria de IA desenvolveu várias correntes de implementação da inteligência artificial em diferentes períodos e contextos acadêmicos e industriais.
A tecnologia moderna de inteligência artificial utiliza principalmente o termo "aprendizagem de máquina", cuja ideia central é permitir que as máquinas melhorem o desempenho do sistema através de iterações repetidas em tarefas específicas, utilizando dados. Os principais passos incluem a entrada de dados no algoritmo, o treinamento do modelo com os dados, o teste e a implementação do modelo, e por fim, o uso do modelo para realizar tarefas de previsão automatizada.
Atualmente, a aprendizagem de máquina é principalmente dividida em três grandes correntes: o conexionismo, o simbolismo e o behaviorismo, que imitam, respetivamente, o sistema nervoso, o pensamento e o comportamento humanos. Dentre elas, o conexionismo, representado por redes neurais, ocupa atualmente a posição dominante ( também conhecido como aprendizagem profunda ). A arquitetura da rede neural inclui uma camada de entrada, uma camada de saída e várias camadas ocultas; quando o número de camadas e a quantidade de parâmetros dos neurônios ( são suficientes, é capaz de ajustar tarefas gerais complexas. Ao ajustar constantemente os parâmetros dos neurônios com a entrada de dados, os neurônios eventualmente atingem um estado ótimo, que também é a origem do termo "profundo" - um número suficiente de camadas e neurônios.
A tecnologia de aprendizado profundo baseada em redes neurais também passou por várias iterações e evoluções, desde as primeiras redes neurais, passando por redes neurais feedforward, RNN, CNN, GAN, até finalmente se desenvolver em modelos modernos, como os utilizados por GPT, com a tecnologia Transformer. A tecnologia Transformer é uma direção de evolução das redes neurais, que adiciona um conversor ) Transformer (, para codificar dados de várias modalidades ), como áudio, vídeo, imagens, etc., em representações numéricas correspondentes, que são então inseridas na rede neural, permitindo que a rede neural se ajuste a qualquer tipo de dado, realizando processamento multimodal.
O desenvolvimento da IA passou por três ondas tecnológicas:
A primeira onda ocorreu na década de 1960, impulsionada por tecnologias de simbolismo, resolvendo problemas de processamento de linguagem natural generalizada e diálogo homem-máquina. Na mesma época, surgiram sistemas especialistas, como o sistema especialista em química DENDRAL desenvolvido pela NASA.
A segunda onda ocorreu na década de 1990, com a proposta de redes bayesianas e robótica baseada em comportamento, marcando o nascimento do behaviorismo. Em 1997, o Deep Blue da IBM derrotou o campeão de xadrez Kasparov, sendo considerado um marco na inteligência artificial.
A terceira onda começou em 2006. O conceito de aprendizado profundo foi proposto, usando redes neurais artificiais como arquitetura, para realizar o aprendizado de representação de dados. Desde então, os algoritmos de aprendizado profundo evoluíram continuamente, desde RNN, GAN até Transformer e Stable Diffusion, moldando esta onda tecnológica, e também representando o auge do conexionismo.
Durante este período, ocorreram vários eventos emblemáticos:
Em 2011, o Watson da IBM venceu competidores humanos no programa de perguntas e respostas "Perigo à Vista".
Em 2014, Goodfellow propôs a rede generativa adversarial GAN(.
Em 2015, Hinton e outros propuseram algoritmos de aprendizado profundo na revista "Nature", gerando uma enorme repercussão. OpenAI foi fundada.
Em 2016, AlphaGo derrotou o campeão mundial de Go, Lee Sedol.
Em 2017, o Google apresentou o algoritmo Transformer, e os modelos de linguagem em larga escala começaram a aparecer.
Em 2018, a OpenAI lançou o GPT e a DeepMind lançou o AlphaFold.
Em 2019, a OpenAI lançou o GPT-2.
Em 2020, a OpenAI lançou o GPT-3.
Em 2023, o ChatGPT baseado no GPT-4 foi lançado e rapidamente atingiu cem milhões de usuários.
![Novos conhecimentos丨AI x Crypto:Do zero ao auge])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
Cadeia de Indústria de Aprendizado Profundo
Os atuais grandes modelos de linguagem utilizam principalmente métodos de aprendizado profundo baseados em redes neurais. Modelos de grande escala, como o GPT, desencadearam uma nova onda de entusiasmo pela inteligência artificial, com muitos jogadores entrando neste campo e a demanda do mercado por dados e poder computacional aumentando rapidamente. Esta seção irá explorar a composição da cadeia industrial dos algoritmos de aprendizado profundo, bem como a situação atual, as relações de oferta e demanda e o desenvolvimento futuro.
O treinamento de grandes modelos de linguagem como o GPT baseado na tecnologia Transformer ) LLMs ( é principalmente dividido em três etapas:
Pré-treinamento: introduzir uma grande quantidade de dados para encontrar os melhores parâmetros dos neurônios. Este processo consome mais poder de computação e requer várias iterações para tentar vários parâmetros.
Ajuste fino: utilizar uma pequena quantidade de dados, mas de alta qualidade, para treinar e melhorar a qualidade da saída do modelo.
Aprendizagem por reforço: estabelecer um "modelo de recompensa" para avaliar a qualidade da saída do grande modelo, e através deste modelo, iterar automaticamente os parâmetros do grande modelo. Às vezes, também é necessário o envolvimento humano na avaliação.
Em resumo, o pré-treinamento exige uma grande quantidade de dados e consome a maior parte da capacidade computacional da GPU; o ajuste fino necessita de dados de alta qualidade para melhorar os parâmetros; o aprendizado por reforço itera os parâmetros repetidamente através de um modelo de recompensa para melhorar a qualidade da saída.
Os três principais fatores que afetam o desempenho de grandes modelos são: o número de parâmetros, a quantidade e qualidade dos dados e a capacidade de processamento. Esses três fatores determinam conjuntamente a qualidade dos resultados do grande modelo e sua capacidade de generalização. Supondo que o número de parâmetros seja p, a quantidade de dados seja n) calculada em termos de número de Tokens(, é possível estimar a quantidade de computação necessária através de uma regra empírica, a fim de prever a capacidade de processamento e o tempo de treinamento necessários.
A potência de cálculo é geralmente medida em Flops, que representa uma operação de ponto flutuante. De acordo com a experiência prática, o pré-treinamento de um grande modelo requer cerca de 6np Flops. O processo de inferência ), onde os dados de entrada aguardam a saída do modelo, requer 2np Flops.
O treinamento inicial de IA utilizava principalmente chips CPU, que gradualmente foram substituídos por GPUs, como a A100 e H100 da Nvidia. As GPUs superam em muito as CPUs em eficiência de consumo de energia, realizando operações de ponto flutuante principalmente através do módulo Tensor Core. A capacidade de cálculo dos chips é geralmente medida em Flops sob precisão FP16/FP32.
Tomando o GPT-3 como exemplo, ele possui 175 bilhões de parâmetros e uma quantidade de dados de 180 bilhões de Tokens, aproximadamente 570GB(. Para realizar um pré-treinamento, são necessários 3,15*10^22 Flops, o que equivale a 584 dias de uso de um chip Nvidia A100 SXM. Considerando que a quantidade de parâmetros do GPT-4 é 10 vezes maior que a do GPT-3, a quantidade de dados também aumentou 10 vezes, podendo ser necessário mais de 100 vezes a capacidade computacional do chip.
No treinamento de grandes modelos, o armazenamento de dados também é um desafio. A memória GPU geralmente é pequena ) como A100 com 80GB (, não consegue acomodar todos os dados e parâmetros do modelo. Portanto, é necessário considerar a largura de banda do chip, ou seja, a velocidade de transferência de dados entre o disco rígido e a memória. Durante o treinamento colaborativo com múltiplas GPUs, a taxa de transferência de dados entre os chips também é crucial.
![Novos Conhecimentos丨AI x Crypto:Do Zero ao Topo])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
A cadeia industrial de aprendizado profundo inclui os seguintes segmentos:
Fornecedores de hardware GPU: Atualmente, a Nvidia está em uma posição de liderança absoluta. O setor acadêmico utiliza principalmente GPUs de consumo ), como a série RTX (, enquanto a indústria utiliza principalmente chips profissionais como H100, A100, entre outros. O Google também possui chips TPU desenvolvidos internamente.
Provedores de serviços em nuvem: oferecem poder computacional flexível e soluções de treinamento hospedado para empresas de IA com orçamento limitado. Dividem-se principalmente em três categorias: provedores de nuvem tradicionais ) como AWS, Google Cloud, Azure (, plataformas de poder computacional em nuvem de IA vertical ) como CoreWeave, Lambda (, e provedores de inferência como serviço ) como Together.ai, Fireworks.ai (.
Fornecedores de fontes de dados de treino: fornecem grandes quantidades de dados ou dados de alta qualidade para grandes modelos. Empresas como Google e Reddit, que possuem grandes quantidades de dados, estão em destaque. Também existem empresas especializadas em rotulagem de dados que fornecem dados para modelos de áreas específicas.
Fornecedores de banco de dados: As tarefas de inferência de treinamento de IA utilizam principalmente "banco de dados vetoriais", para armazenamento e indexação eficientes de grandes volumes de dados vetoriais de alta dimensão. Os principais jogadores incluem Chroma, Zilliz, Pinecone, Weaviate, entre outros.
Dispositivos de borda: fornecem suporte de refrigeração e alimentação para clusters de GPU. Inclui fornecimento de energia ) como geotermia, hidrogénio, energia nuclear ( e sistemas de refrigeração ) como tecnologia de refrigeração líquida (.
Aplicação: Atualmente, as aplicações de IA estão principalmente concentradas nas áreas de pesquisa, perguntas e respostas, com taxas de retenção e de atividade geralmente inferiores às aplicações da internet tradicional. As aplicações são principalmente divididas em três categorias: direcionadas a consumidores profissionais, empresas e consumidores comuns.
![Novato Esclarecimento丨AI x Crypto: Do Zero ao Pico])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
A relação entre criptomoedas e IA
A tecnologia Blockchain tem como núcleo a descentralização e a desconfiança. O Bitcoin criou um sistema de transferência de valor sem confiança, enquanto o Ethereum implementou ainda mais uma plataforma de contratos inteligentes descentralizada e sem confiança. Essencialmente, uma rede Blockchain é uma rede de valor, onde cada transação é uma conversão de valor baseada em tokens subjacentes.
Na internet tradicional, o valor é refletido no preço das ações através de indicadores como P/E. No entanto, na rede Blockchain, o token nativo ), como o ETH(, representa o valor multidimensional da rede, podendo não apenas gerar rendimentos de staking, mas também atuar como meio de troca de valor, meio de armazenamento de valor, e bens de consumo para atividades na rede.
A economia dos tokens ) Tokenomics ( define o valor relativo dos ativos de liquidação do ecossistema ) tokens nativos (. Embora não seja possível precificar individualmente cada dimensão, o preço do token reflete de forma abrangente o valor multidimensional. Uma vez que os tokens são atribuídos à rede e se tornam circulantes, pode-se alcançar uma captura de valor muito superior à das ações tradicionais.
O encanto da economia de tokens reside em atribuir valor a qualquer função ou ideia. Redefine e descobre valor, sendo crucial para diversas indústrias, incluindo a IA. Na indústria de IA, a emissão de tokens pode reformular o valor em todas as etapas da cadeia industrial, incentivando mais pessoas a se aprofundarem em nichos específicos. Os tokens também podem fornecer valor adicional à infraestrutura, promovendo a formação do paradigma "protocolos gordos e aplicações magras".
A característica de imutabilidade e a necessidade de confiança da tecnologia Blockchain também podem trazer valor real para a indústria de IA. Por exemplo, é possível permitir que modelos utilizem dados, protegendo a privacidade do usuário; é possível redistribuir a capacidade de cálculo de GPU ociosa através de uma rede global, redescobrindo o valor remanescente.
Em geral, a economia dos tokens ajuda a remodelar e descobrir valor, enquanto o livro-razão descentralizado pode resolver problemas de confiança, permitindo que o valor flua globalmente. Esta combinação traz novas possibilidades para a indústria de IA.
![Novato Esclarecimento丨AI x Crypto: Do zero ao pico])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
Visão Geral da Cadeia de Indústria de IA no Setor de Criptomoedas
Lado da oferta de GPU:
Os principais projetos incluem Render, Golem, entre outros. Render, como um projeto mais maduro, foca principalmente em tarefas de renderização de vídeo que não envolvem grandes modelos. O mercado de computação em nuvem GPU não só pode servir para o treinamento e inferência de modelos de IA, mas também é adequado para tarefas de renderização tradicionais, reduzindo o risco de dependência de um único mercado.
Largura de banda de hardware:
Projetos como a Meson Network tentam estabelecer uma rede global de compartilhamento de largura de banda. No entanto, o compartilhamento de largura de banda pode ser uma demanda falsa para o treinamento de grandes modelos, pois a latência causada pela localização geográfica pode afetar significativamente a eficiência do treinamento.
Dados:
Os principais projetos incluem EpiK Protocol, Synesis One, Masa, entre outros. Comparado com as empresas tradicionais de dados, os fornecedores de dados em Blockchain têm vantagens na coleta de dados, podendo precificar dados pessoais e incentivar os usuários a contribuir com dados através de tokens.
ZKML:
Projetos como Zama, TruthGPT, entre outros, utilizam tecnologia de prova de conhecimento zero para realizar cálculos e treinamentos de privacidade. Além disso, alguns projetos ZK de uso geral, como Axiom e Risc Zero, também merecem atenção.
Aplicações de IA:
Atualmente, a principal aplicação é a combinação de aplicações tradicionais de Blockchain com capacidades de automação e generalização. O AI Agent) como Fetch.AI( serve como uma ponte entre os usuários e várias aplicações, e espera-se que seja o primeiro a beneficiar.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
14 gostos
Recompensa
14
4
Partilhar
Comentar
0/400
mev_me_maybe
· 12h atrás
o gpt exagerou, é hora de esfriar
Ver originalResponder0
fork_in_the_road
· 12h atrás
já percebi tudo, idiotas
Ver originalResponder0
NotFinancialAdviser
· 12h atrás
GPT joga bem, a negociação de criptomoedas desta vez deve atingir novos máximos.
IA e Blockchain: Reconfiguração do valor da cadeia industrial e tendências futuras de desenvolvimento
A evolução da indústria de IA e as perspectivas de integração com a Blockchain
A indústria de inteligência artificial fez progressos significativos recentemente, sendo considerada um motor chave da quarta revolução industrial. O surgimento de grandes modelos de linguagem melhorou significativamente a eficiência do trabalho em vários setores, com a Boston Consulting Group acreditando que o GPT aumentou a produtividade geral dos EUA em cerca de 20%. Ao mesmo tempo, a capacidade de generalização dos grandes modelos é vista como um novo paradigma de design de software, distinto da abordagem de codificação precisa do passado; agora, o design de software usa mais frequentemente estruturas de grandes modelos com maior capacidade de generalização, capazes de suportar uma gama mais ampla de entradas e saídas de modalidades. A tecnologia de aprendizado profundo trouxe uma nova onda de prosperidade para a indústria de IA, e essa onda está gradualmente se espalhando para a indústria de criptomoedas.
Este relatório irá explorar profundamente a trajetória de desenvolvimento da indústria de IA, a classificação de tecnologias e o impacto das tecnologias de aprendizado profundo na indústria. Vamos analisar o estado atual e as tendências de desenvolvimento da cadeia de suprimentos na área de aprendizado profundo, incluindo GPU, computação em nuvem, fontes de dados e dispositivos de borda. Ao mesmo tempo, também vamos explorar essencialmente a relação entre criptomoedas e a indústria de IA, e organizar a estrutura da cadeia de suprimentos de IA relacionada às criptomoedas.
Desenvolvimento da Indústria de IA
Desde o início da década de 1950, a indústria de IA desenvolveu várias correntes de implementação da inteligência artificial em diferentes períodos e contextos acadêmicos e industriais.
A tecnologia moderna de inteligência artificial utiliza principalmente o termo "aprendizagem de máquina", cuja ideia central é permitir que as máquinas melhorem o desempenho do sistema através de iterações repetidas em tarefas específicas, utilizando dados. Os principais passos incluem a entrada de dados no algoritmo, o treinamento do modelo com os dados, o teste e a implementação do modelo, e por fim, o uso do modelo para realizar tarefas de previsão automatizada.
Atualmente, a aprendizagem de máquina é principalmente dividida em três grandes correntes: o conexionismo, o simbolismo e o behaviorismo, que imitam, respetivamente, o sistema nervoso, o pensamento e o comportamento humanos. Dentre elas, o conexionismo, representado por redes neurais, ocupa atualmente a posição dominante ( também conhecido como aprendizagem profunda ). A arquitetura da rede neural inclui uma camada de entrada, uma camada de saída e várias camadas ocultas; quando o número de camadas e a quantidade de parâmetros dos neurônios ( são suficientes, é capaz de ajustar tarefas gerais complexas. Ao ajustar constantemente os parâmetros dos neurônios com a entrada de dados, os neurônios eventualmente atingem um estado ótimo, que também é a origem do termo "profundo" - um número suficiente de camadas e neurônios.
A tecnologia de aprendizado profundo baseada em redes neurais também passou por várias iterações e evoluções, desde as primeiras redes neurais, passando por redes neurais feedforward, RNN, CNN, GAN, até finalmente se desenvolver em modelos modernos, como os utilizados por GPT, com a tecnologia Transformer. A tecnologia Transformer é uma direção de evolução das redes neurais, que adiciona um conversor ) Transformer (, para codificar dados de várias modalidades ), como áudio, vídeo, imagens, etc., em representações numéricas correspondentes, que são então inseridas na rede neural, permitindo que a rede neural se ajuste a qualquer tipo de dado, realizando processamento multimodal.
O desenvolvimento da IA passou por três ondas tecnológicas:
A primeira onda ocorreu na década de 1960, impulsionada por tecnologias de simbolismo, resolvendo problemas de processamento de linguagem natural generalizada e diálogo homem-máquina. Na mesma época, surgiram sistemas especialistas, como o sistema especialista em química DENDRAL desenvolvido pela NASA.
A segunda onda ocorreu na década de 1990, com a proposta de redes bayesianas e robótica baseada em comportamento, marcando o nascimento do behaviorismo. Em 1997, o Deep Blue da IBM derrotou o campeão de xadrez Kasparov, sendo considerado um marco na inteligência artificial.
A terceira onda começou em 2006. O conceito de aprendizado profundo foi proposto, usando redes neurais artificiais como arquitetura, para realizar o aprendizado de representação de dados. Desde então, os algoritmos de aprendizado profundo evoluíram continuamente, desde RNN, GAN até Transformer e Stable Diffusion, moldando esta onda tecnológica, e também representando o auge do conexionismo.
Durante este período, ocorreram vários eventos emblemáticos:
![Novos conhecimentos丨AI x Crypto:Do zero ao auge])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
Cadeia de Indústria de Aprendizado Profundo
Os atuais grandes modelos de linguagem utilizam principalmente métodos de aprendizado profundo baseados em redes neurais. Modelos de grande escala, como o GPT, desencadearam uma nova onda de entusiasmo pela inteligência artificial, com muitos jogadores entrando neste campo e a demanda do mercado por dados e poder computacional aumentando rapidamente. Esta seção irá explorar a composição da cadeia industrial dos algoritmos de aprendizado profundo, bem como a situação atual, as relações de oferta e demanda e o desenvolvimento futuro.
O treinamento de grandes modelos de linguagem como o GPT baseado na tecnologia Transformer ) LLMs ( é principalmente dividido em três etapas:
Pré-treinamento: introduzir uma grande quantidade de dados para encontrar os melhores parâmetros dos neurônios. Este processo consome mais poder de computação e requer várias iterações para tentar vários parâmetros.
Ajuste fino: utilizar uma pequena quantidade de dados, mas de alta qualidade, para treinar e melhorar a qualidade da saída do modelo.
Aprendizagem por reforço: estabelecer um "modelo de recompensa" para avaliar a qualidade da saída do grande modelo, e através deste modelo, iterar automaticamente os parâmetros do grande modelo. Às vezes, também é necessário o envolvimento humano na avaliação.
Em resumo, o pré-treinamento exige uma grande quantidade de dados e consome a maior parte da capacidade computacional da GPU; o ajuste fino necessita de dados de alta qualidade para melhorar os parâmetros; o aprendizado por reforço itera os parâmetros repetidamente através de um modelo de recompensa para melhorar a qualidade da saída.
Os três principais fatores que afetam o desempenho de grandes modelos são: o número de parâmetros, a quantidade e qualidade dos dados e a capacidade de processamento. Esses três fatores determinam conjuntamente a qualidade dos resultados do grande modelo e sua capacidade de generalização. Supondo que o número de parâmetros seja p, a quantidade de dados seja n) calculada em termos de número de Tokens(, é possível estimar a quantidade de computação necessária através de uma regra empírica, a fim de prever a capacidade de processamento e o tempo de treinamento necessários.
A potência de cálculo é geralmente medida em Flops, que representa uma operação de ponto flutuante. De acordo com a experiência prática, o pré-treinamento de um grande modelo requer cerca de 6np Flops. O processo de inferência ), onde os dados de entrada aguardam a saída do modelo, requer 2np Flops.
O treinamento inicial de IA utilizava principalmente chips CPU, que gradualmente foram substituídos por GPUs, como a A100 e H100 da Nvidia. As GPUs superam em muito as CPUs em eficiência de consumo de energia, realizando operações de ponto flutuante principalmente através do módulo Tensor Core. A capacidade de cálculo dos chips é geralmente medida em Flops sob precisão FP16/FP32.
Tomando o GPT-3 como exemplo, ele possui 175 bilhões de parâmetros e uma quantidade de dados de 180 bilhões de Tokens, aproximadamente 570GB(. Para realizar um pré-treinamento, são necessários 3,15*10^22 Flops, o que equivale a 584 dias de uso de um chip Nvidia A100 SXM. Considerando que a quantidade de parâmetros do GPT-4 é 10 vezes maior que a do GPT-3, a quantidade de dados também aumentou 10 vezes, podendo ser necessário mais de 100 vezes a capacidade computacional do chip.
No treinamento de grandes modelos, o armazenamento de dados também é um desafio. A memória GPU geralmente é pequena ) como A100 com 80GB (, não consegue acomodar todos os dados e parâmetros do modelo. Portanto, é necessário considerar a largura de banda do chip, ou seja, a velocidade de transferência de dados entre o disco rígido e a memória. Durante o treinamento colaborativo com múltiplas GPUs, a taxa de transferência de dados entre os chips também é crucial.
![Novos Conhecimentos丨AI x Crypto:Do Zero ao Topo])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
A cadeia industrial de aprendizado profundo inclui os seguintes segmentos:
Fornecedores de hardware GPU: Atualmente, a Nvidia está em uma posição de liderança absoluta. O setor acadêmico utiliza principalmente GPUs de consumo ), como a série RTX (, enquanto a indústria utiliza principalmente chips profissionais como H100, A100, entre outros. O Google também possui chips TPU desenvolvidos internamente.
Provedores de serviços em nuvem: oferecem poder computacional flexível e soluções de treinamento hospedado para empresas de IA com orçamento limitado. Dividem-se principalmente em três categorias: provedores de nuvem tradicionais ) como AWS, Google Cloud, Azure (, plataformas de poder computacional em nuvem de IA vertical ) como CoreWeave, Lambda (, e provedores de inferência como serviço ) como Together.ai, Fireworks.ai (.
Fornecedores de fontes de dados de treino: fornecem grandes quantidades de dados ou dados de alta qualidade para grandes modelos. Empresas como Google e Reddit, que possuem grandes quantidades de dados, estão em destaque. Também existem empresas especializadas em rotulagem de dados que fornecem dados para modelos de áreas específicas.
Fornecedores de banco de dados: As tarefas de inferência de treinamento de IA utilizam principalmente "banco de dados vetoriais", para armazenamento e indexação eficientes de grandes volumes de dados vetoriais de alta dimensão. Os principais jogadores incluem Chroma, Zilliz, Pinecone, Weaviate, entre outros.
Dispositivos de borda: fornecem suporte de refrigeração e alimentação para clusters de GPU. Inclui fornecimento de energia ) como geotermia, hidrogénio, energia nuclear ( e sistemas de refrigeração ) como tecnologia de refrigeração líquida (.
Aplicação: Atualmente, as aplicações de IA estão principalmente concentradas nas áreas de pesquisa, perguntas e respostas, com taxas de retenção e de atividade geralmente inferiores às aplicações da internet tradicional. As aplicações são principalmente divididas em três categorias: direcionadas a consumidores profissionais, empresas e consumidores comuns.
![Novato Esclarecimento丨AI x Crypto: Do Zero ao Pico])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
A relação entre criptomoedas e IA
A tecnologia Blockchain tem como núcleo a descentralização e a desconfiança. O Bitcoin criou um sistema de transferência de valor sem confiança, enquanto o Ethereum implementou ainda mais uma plataforma de contratos inteligentes descentralizada e sem confiança. Essencialmente, uma rede Blockchain é uma rede de valor, onde cada transação é uma conversão de valor baseada em tokens subjacentes.
Na internet tradicional, o valor é refletido no preço das ações através de indicadores como P/E. No entanto, na rede Blockchain, o token nativo ), como o ETH(, representa o valor multidimensional da rede, podendo não apenas gerar rendimentos de staking, mas também atuar como meio de troca de valor, meio de armazenamento de valor, e bens de consumo para atividades na rede.
A economia dos tokens ) Tokenomics ( define o valor relativo dos ativos de liquidação do ecossistema ) tokens nativos (. Embora não seja possível precificar individualmente cada dimensão, o preço do token reflete de forma abrangente o valor multidimensional. Uma vez que os tokens são atribuídos à rede e se tornam circulantes, pode-se alcançar uma captura de valor muito superior à das ações tradicionais.
O encanto da economia de tokens reside em atribuir valor a qualquer função ou ideia. Redefine e descobre valor, sendo crucial para diversas indústrias, incluindo a IA. Na indústria de IA, a emissão de tokens pode reformular o valor em todas as etapas da cadeia industrial, incentivando mais pessoas a se aprofundarem em nichos específicos. Os tokens também podem fornecer valor adicional à infraestrutura, promovendo a formação do paradigma "protocolos gordos e aplicações magras".
A característica de imutabilidade e a necessidade de confiança da tecnologia Blockchain também podem trazer valor real para a indústria de IA. Por exemplo, é possível permitir que modelos utilizem dados, protegendo a privacidade do usuário; é possível redistribuir a capacidade de cálculo de GPU ociosa através de uma rede global, redescobrindo o valor remanescente.
Em geral, a economia dos tokens ajuda a remodelar e descobrir valor, enquanto o livro-razão descentralizado pode resolver problemas de confiança, permitindo que o valor flua globalmente. Esta combinação traz novas possibilidades para a indústria de IA.
![Novato Esclarecimento丨AI x Crypto: Do zero ao pico])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
Visão Geral da Cadeia de Indústria de IA no Setor de Criptomoedas
Lado da oferta de GPU: Os principais projetos incluem Render, Golem, entre outros. Render, como um projeto mais maduro, foca principalmente em tarefas de renderização de vídeo que não envolvem grandes modelos. O mercado de computação em nuvem GPU não só pode servir para o treinamento e inferência de modelos de IA, mas também é adequado para tarefas de renderização tradicionais, reduzindo o risco de dependência de um único mercado.
Largura de banda de hardware: Projetos como a Meson Network tentam estabelecer uma rede global de compartilhamento de largura de banda. No entanto, o compartilhamento de largura de banda pode ser uma demanda falsa para o treinamento de grandes modelos, pois a latência causada pela localização geográfica pode afetar significativamente a eficiência do treinamento.
Dados: Os principais projetos incluem EpiK Protocol, Synesis One, Masa, entre outros. Comparado com as empresas tradicionais de dados, os fornecedores de dados em Blockchain têm vantagens na coleta de dados, podendo precificar dados pessoais e incentivar os usuários a contribuir com dados através de tokens.
ZKML: Projetos como Zama, TruthGPT, entre outros, utilizam tecnologia de prova de conhecimento zero para realizar cálculos e treinamentos de privacidade. Além disso, alguns projetos ZK de uso geral, como Axiom e Risc Zero, também merecem atenção.
Aplicações de IA: Atualmente, a principal aplicação é a combinação de aplicações tradicionais de Blockchain com capacidades de automação e generalização. O AI Agent) como Fetch.AI( serve como uma ponte entre os usuários e várias aplicações, e espera-se que seja o primeiro a beneficiar.
Blockchain de IA: Como Tensor,