Relatório de Pesquisa Profunda Layer1 de IA: Procurando o Solo Fértil do DeAI na cadeia
Visão geral
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em vários setores, ampliando imensamente o espaço da imaginação humana e até mesmo mostrando potencial para substituir o trabalho humano em alguns cenários. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de um pequeno número de gigantes tecnológicos centralizados. Com capital substancial e controle sobre recursos computacionais caros, essas empresas estabeleceram barreiras difíceis de ultrapassar, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competirem com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nos avanços e facilidades trazidos pela tecnologia, enquanto a atenção a questões centrais como a proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidas de forma adequada, a controvérsia sobre se a IA é "para o bem" ou "para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, frequentemente carecem de motivação suficiente para enfrentar esses desafios de forma proativa.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, muitas aplicações "Web3 AI" já surgiram em várias blockchains mainstream. No entanto, uma análise profunda revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, com etapas críticas e infraestrutura ainda dependendo de serviços de nuvem centralizados, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, com a profundidade e amplitude da inovação a serem aprimoradas.
Para realmente alcançar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para IA. Isso fornecerá uma base sólida para a inovação aberta em IA, governança democrática e segurança de dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Especificamente, AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismo de consenso descentralizado e incentivos eficientes
O núcleo do AI Layer 1 reside na construção de uma rede de compartilhamento de recursos abertos, como poder computacional e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos grandes players na infraestrutura de IA. Isso coloca requisitos mais altos para o consenso subjacente e o mecanismo de incentivos: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a distribuição eficiente de recursos. Só assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Excelente desempenho e capacidade de suporte a tarefas heterogêneas
As tarefas de IA, especialmente o treino e a inferência de LLM, exigem um desempenho computacional e uma capacidade de processamento paralelo extremamente elevados. Além disso, o ecossistema de IA na cadeia frequentemente precisa suportar tipos de tarefas diversificados e heterogêneos, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários multimodais. A AI Layer 1 deve ser profundamente otimizada na arquitetura subjacente para atender às necessidades de alto throughput, baixa latência e paralelismo elástico, e prever a capacidade de suporte nativo a recursos computacionais heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, alcançando uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado."
Verificabilidade e garantia de saída confiável
AI Layer 1 não só deve prevenir riscos de segurança como o uso mal-intencionado de modelos e a manipulação de dados, mas também garantir, a partir de mecanismos de base, a verificabilidade e a alinhabilidade dos resultados gerados pela IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados possam ser verificados de forma independente, assegurando a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também ajuda os usuários a entenderem a lógica e os fundamentos das saídas da IA, alcançando "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados
As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve, ao garantir a verificabilidade, empregar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privada e gestão de permissões de dados, para assegurar a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte e desenvolvimento de ecossistemas
Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós, provedores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação diversificada de aplicações nativas de IA, alcançando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços na pista, analisando o estado atual do desenvolvimento dos projetos e explorando as tendências futuras.
Sentient: Construindo modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto, que está a desenvolver uma blockchain de AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Ao combinar AI Pipeline e tecnologia blockchain, está a construir um ecossistema de inteligência artificial descentralizado. O seu objetivo central é resolver questões de posse de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (Aberta, Lucrativa, Leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e partilha de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim uma rede ecológica de Agentes de IA justa e aberta.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o co-fundador de uma plataforma de negociação Sandeep Nailwal lidera a estratégia de blockchain e o layout ecológico. Os membros da equipe têm formação em várias empresas renomadas, bem como nas principais universidades como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como o projeto de segundo empreendimento de Sandeep Nailwal, cofundador de uma conhecida plataforma de negociação, o Sentient já nasceu com um halo, possuindo recursos ricos, conexões e reconhecimento de mercado, o que proporciona um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores, incluindo Delphi, Hashkey e dezenas de outras VCs conhecidas.
Arquitetura de design e camada de aplicação
Camada de infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos centrais:
Planeamento de Dados (Data Curation): Processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento de modelos.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com as intenções da comunidade.
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento do uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazenar pesos do modelo e informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada do modelo controlada pelo contrato de autorização;
Camada de acesso: verifica se o usuário está autorizado através da prova de permissão;
Camada de incentivo: o contrato de roteamento de receita irá alocar o pagamento a cada chamada para o treinadores, implementadores e validadores.
Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é a ideia central proposta pela Sentient, visando fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo gera um fluxo de receita, o contrato na cadeia distribui os ganhos aos treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e a modificação estão sob o controle de mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Impressão digital embutida: durante o treinamento, insere-se um conjunto de pares chave-valor query-response ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital foi preservada através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de chamada de licença: antes de chamar, é necessário obter o "certificado de autorização" emitido pelo proprietário do modelo, e o sistema, com base nisso, autoriza o modelo a decodificar a entrada e retornar a resposta correta.
Este método permite a implementação de "chamadas de autorização baseadas em comportamento + validação de pertencimento" sem custos de re-encriptação.
Modelo de Concessão de Direitos e Estrutura de Execução Segura
Sentient atualmente utiliza a segurança Melange misturada: combinação de autenticação por impressão digital, execução TEE e contratos na cadeia para distribuição de lucros. O método de impressão digital é implementado pela OML 1.0 como a linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", que assume conformidade por padrão, podendo ser detectada e punida em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, que permite que o modelo gere uma assinatura única na fase de treinamento, através da incorporação de pares específicos de "pergunta-resposta". Com essas assinaturas, os detentores do modelo podem verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece registros rastreáveis na cadeia sobre o comportamento de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que o modelo apenas responda a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens em termos de alto desempenho e tempo real fazem dele uma tecnologia central para a implantação de modelos atualmente.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE), para reforçar ainda mais a proteção da privacidade e a verificabilidade, proporcionando soluções mais maduras para a implementação descentralizada de modelos de IA.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
7 Curtidas
Recompensa
7
3
Compartilhar
Comentário
0/400
AirDropMissed
· 11h atrás
DeAI é mais uma armadilha para idiotas?
Ver originalResponder0
NftDataDetective
· 11h atrás
ngmi w/ grande tecnologia monopólio... descentralização ou morte fr fr
Análise Profunda da Camada 1 de IA: Explorando o solo na cadeia da inteligência artificial descentralizada
Relatório de Pesquisa Profunda Layer1 de IA: Procurando o Solo Fértil do DeAI na cadeia
Visão geral
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em vários setores, ampliando imensamente o espaço da imaginação humana e até mesmo mostrando potencial para substituir o trabalho humano em alguns cenários. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de um pequeno número de gigantes tecnológicos centralizados. Com capital substancial e controle sobre recursos computacionais caros, essas empresas estabeleceram barreiras difíceis de ultrapassar, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competirem com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nos avanços e facilidades trazidos pela tecnologia, enquanto a atenção a questões centrais como a proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidas de forma adequada, a controvérsia sobre se a IA é "para o bem" ou "para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, frequentemente carecem de motivação suficiente para enfrentar esses desafios de forma proativa.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, muitas aplicações "Web3 AI" já surgiram em várias blockchains mainstream. No entanto, uma análise profunda revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, com etapas críticas e infraestrutura ainda dependendo de serviços de nuvem centralizados, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, com a profundidade e amplitude da inovação a serem aprimoradas.
Para realmente alcançar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para IA. Isso fornecerá uma base sólida para a inovação aberta em IA, governança democrática e segurança de dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Especificamente, AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismo de consenso descentralizado e incentivos eficientes O núcleo do AI Layer 1 reside na construção de uma rede de compartilhamento de recursos abertos, como poder computacional e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos grandes players na infraestrutura de IA. Isso coloca requisitos mais altos para o consenso subjacente e o mecanismo de incentivos: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a distribuição eficiente de recursos. Só assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Excelente desempenho e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treino e a inferência de LLM, exigem um desempenho computacional e uma capacidade de processamento paralelo extremamente elevados. Além disso, o ecossistema de IA na cadeia frequentemente precisa suportar tipos de tarefas diversificados e heterogêneos, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários multimodais. A AI Layer 1 deve ser profundamente otimizada na arquitetura subjacente para atender às necessidades de alto throughput, baixa latência e paralelismo elástico, e prever a capacidade de suporte nativo a recursos computacionais heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, alcançando uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado."
Verificabilidade e garantia de saída confiável AI Layer 1 não só deve prevenir riscos de segurança como o uso mal-intencionado de modelos e a manipulação de dados, mas também garantir, a partir de mecanismos de base, a verificabilidade e a alinhabilidade dos resultados gerados pela IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados possam ser verificados de forma independente, assegurando a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também ajuda os usuários a entenderem a lógica e os fundamentos das saídas da IA, alcançando "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve, ao garantir a verificabilidade, empregar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privada e gestão de permissões de dados, para assegurar a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte e desenvolvimento de ecossistemas Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós, provedores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação diversificada de aplicações nativas de IA, alcançando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços na pista, analisando o estado atual do desenvolvimento dos projetos e explorando as tendências futuras.
Sentient: Construindo modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto, que está a desenvolver uma blockchain de AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Ao combinar AI Pipeline e tecnologia blockchain, está a construir um ecossistema de inteligência artificial descentralizado. O seu objetivo central é resolver questões de posse de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (Aberta, Lucrativa, Leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e partilha de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim uma rede ecológica de Agentes de IA justa e aberta.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o co-fundador de uma plataforma de negociação Sandeep Nailwal lidera a estratégia de blockchain e o layout ecológico. Os membros da equipe têm formação em várias empresas renomadas, bem como nas principais universidades como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como o projeto de segundo empreendimento de Sandeep Nailwal, cofundador de uma conhecida plataforma de negociação, o Sentient já nasceu com um halo, possuindo recursos ricos, conexões e reconhecimento de mercado, o que proporciona um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores, incluindo Delphi, Hashkey e dezenas de outras VCs conhecidas.
Arquitetura de design e camada de aplicação
Camada de infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos centrais:
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento do uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é a ideia central proposta pela Sentient, visando fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Este método permite a implementação de "chamadas de autorização baseadas em comportamento + validação de pertencimento" sem custos de re-encriptação.
Modelo de Concessão de Direitos e Estrutura de Execução Segura
Sentient atualmente utiliza a segurança Melange misturada: combinação de autenticação por impressão digital, execução TEE e contratos na cadeia para distribuição de lucros. O método de impressão digital é implementado pela OML 1.0 como a linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", que assume conformidade por padrão, podendo ser detectada e punida em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, que permite que o modelo gere uma assinatura única na fase de treinamento, através da incorporação de pares específicos de "pergunta-resposta". Com essas assinaturas, os detentores do modelo podem verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece registros rastreáveis na cadeia sobre o comportamento de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que o modelo apenas responda a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens em termos de alto desempenho e tempo real fazem dele uma tecnologia central para a implantação de modelos atualmente.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE), para reforçar ainda mais a proteção da privacidade e a verificabilidade, proporcionando soluções mais maduras para a implementação descentralizada de modelos de IA.
deve