Trusta.AI: Atravessando a Lacuna de Confiança na Era Humano-Máquina
Introdução
Com o rápido desenvolvimento da infraestrutura de IA e o surgimento de estruturas de colaboração entre múltiplos agentes, os agentes on-chain impulsionados por IA estão rapidamente se tornando a principal forma de interação no Web3. Espera-se que, nos próximos 2 a 3 anos, esses Agentes de IA com capacidade de tomada de decisão autônoma completem a adoção em larga escala de transações e interações on-chain, podendo substituir 80% do comportamento humano on-chain, tornando-se verdadeiramente os "usuários" on-chain.
O Agente de IA está a remodelar a ordem na cadeia, a impulsionar a fluidez financeira e até a guiar votos de governança e tendências de mercado. Isto marca a transição do ecossistema Web3 de um paradigma centrado na "participação humana" para um novo paradigma de "simbiose homem-máquina".
No entanto, a rápida ascensão dos Agentes de IA trouxe desafios sem precedentes: como identificar e autenticar a identidade desses agentes? Como avaliar a credibilidade de seu comportamento? Em uma rede descentralizada e sem permissão, como garantir que esses agentes não sejam abusados, manipulados ou utilizados para ataques?
Assim, estabelecer uma infraestrutura em cadeia capaz de verificar a identidade e a reputação de Agentes de IA tornou-se a questão central na próxima fase da evolução do Web3. O design de identificação de identidade, mecanismos de reputação e estruturas de confiança determinará se os Agentes de IA conseguem realmente alcançar uma colaboração sem costura com humanos e plataformas, e desempenhar um papel sustentável no ecossistema futuro.
Análise do projeto
Descrição do Projeto
A Trusta.AI está dedicada a construir a infraestrutura de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o primeiro sistema de avaliação de valor do usuário Web3 - MEDIA Reputation Score, construindo o maior protocolo de autenticação de pessoas reais e reputação em cadeia do Web3. Oferece análise de dados em cadeia e serviços de autenticação de pessoas reais para várias principais blockchains, exchanges e protocolos de destaque. Já completou mais de 2,5 milhões de autenticações em cadeia em várias blockchains populares, tornando-se o maior protocolo de identidade do setor.
A Trusta está a expandir-se de Proof of Humanity para Proof of AI Agent, implementando um mecanismo triplo de estabelecimento de identidade, quantificação de identidade e proteção de identidade para realizar serviços financeiros e sociais em cadeia para AI Agents, construindo uma base de confiança confiável na era da inteligência artificial.
Infraestrutura de Confiança - Agente de IA DID
No futuro ecossistema Web3, os Agentes de IA desempenharão um papel crucial, pois poderão não apenas realizar interações e transações na blockchain, mas também realizar operações complexas fora da blockchain. No entanto, a forma de distinguir entre um verdadeiro Agente de IA e operações com intervenção humana está relacionada ao núcleo da confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes podem ser facilmente manipulados, fraudados ou abusados. É precisamente por isso que as múltiplas aplicações dos Agentes de IA em áreas como social, financeira e governança devem ser construídas sobre uma base sólida de autenticação de identidade.
Os cenários de aplicação dos Agentes de IA estão cada vez mais ricos, abrangendo várias áreas, como interação social, gestão financeira e tomada de decisões governamentais, com seu nível de autonomia e inteligência a aumentar continuamente. Por isso, é crucial garantir que cada agente inteligente possua uma identidade única e confiável (DID). A falta de uma validação de identidade eficaz pode levar a que Agentes de IA sejam usados de forma fraudulenta ou manipulados, resultando na perda de confiança e riscos de segurança.
Num futuro ecossistema Web3 totalmente impulsionado por agentes inteligentes, a autenticação de identidade não é apenas a pedra angular da segurança, mas também uma linha de defesa necessária para manter o funcionamento saudável de todo o ecossistema.
Como pioneira no setor, a Trusta.AI, com sua tecnologia de ponta e rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo completo de certificação de DID para Agentes de IA, proporcionando uma sólida garantia para o funcionamento confiável de agentes inteligentes, prevenindo efetivamente riscos potenciais e promovendo o desenvolvimento robusto da economia inteligente Web3.
Visão Geral do Projeto
Situação de financiamento
Janeiro de 2023: concluída a ronda de financiamento inicial de 3 milhões de dólares, liderada pela SevenX Ventures e Vision Plus Capital, com outros investidores incluindo HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre outros.
Junho de 2025: Conclusão de uma nova rodada de financiamento, com investidores incluindo ConsenSys, Starknet, GSR, UFLY Labs, entre outros.
Situação da equipe
Peet Chen: co-fundador e CEO, ex-vice-presidente do Ant Group, Chief Product Officer da Ant Security Technology, ex-gerente geral da plataforma de identidade digital global ZOLOZ.
Simon: cofundador e CTO, ex-responsável pelo laboratório de segurança de IA do Ant Group, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial em segurança e gestão de riscos.
A equipe possui um profundo acúmulo técnico e experiência prática em inteligência artificial e gestão de riscos de segurança, arquitetura de sistemas de pagamento e mecanismos de autenticação. Está há muito tempo dedicada à aplicação profunda de big data e algoritmos inteligentes na gestão de riscos de segurança, bem como ao design de protocolos de nível inferior e à otimização de segurança em ambientes de transação de alta concorrência, possuindo sólidas capacidades de engenharia e a habilidade de implementar soluções inovadoras.
Arquitetura Técnica
Análise técnica
Estabelecimento de Identidade - DID + TEE
Através de um plugin dedicado, cada Agente de IA obtém um identificador descentralizado único na cadeia (DID) e armazena-o com segurança em um ambiente de execução confiável (TEE). Neste ambiente de caixa preta, dados críticos e processos de computação são completamente ocultados, operações sensíveis permanecem sempre privadas, e o exterior não pode espiar os detalhes internos da operação, construindo efetivamente uma barreira sólida para a segurança das informações do Agente de IA.
Para os agentes que foram gerados antes da integração do plugin, dependemos do mecanismo de pontuação abrangente na blockchain para a identificação. Já os agentes que integram o novo plugin podem obter diretamente a "certificação de identidade" emitida pelo DID, estabelecendo assim um sistema de identidade de Agente de IA que é autônomo, autêntico e imutável.
Quantificação de Identidade - Estrutura SIGMA inovadora
A equipe Trusta mantém sempre os princípios de avaliação rigorosa e análise quantitativa, empenhando-se em criar um sistema de autenticação de identidade profissional e confiável.
A equipe Trusta construiu e validou a eficácia do modelo MEDIA Score no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil do usuário na blockchain a partir de cinco dimensões, a saber: valor de interação (Monetary), engajamento (Engagement), diversidade (Diversity), identidade (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário on-chain que é justo, objetivo e quantificável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, já foi amplamente adotado por várias blockchains líderes como um importante critério de referência na seleção de qualificações para a distribuição de airdrops. Ele não se concentra apenas no valor das interações, mas também abrange indicadores multidimensionais como nível de atividade, diversidade de contratos, características de identidade e idade da conta, ajudando as equipes de projeto a identificar com precisão usuários de alto valor e a melhorar a eficiência e a equidade na distribuição de incentivos, refletindo plenamente sua autoridade e reconhecimento no setor.
Com base na construção bem-sucedida do sistema de avaliação de usuários humanos, a Trusta transferiu e atualizou a experiência do MEDIA Score para o cenário de Agentes de IA, estabelecendo um sistema de avaliação Sigma mais adequado à lógica de comportamento dos agentes inteligentes.
Especialização: Conhecimento e nível de especialização do agente.
Influência: influência social e digital dos agentes.
Engajamento: A consistência e fiabilidade das interações on-chain e off-chain.
Monetário: saúde financeira e estabilidade do ecossistema de tokens de agência.
Taxa de Adoção: Frequência e eficiência do uso de agentes de IA.
O mecanismo de pontuação Sigma constrói um sistema de avaliação de ciclo lógico que vai de "capacidade" a "valor" com base em cinco grandes dimensões. O MEDIA enfatiza a avaliação do envolvimento multifacetado dos usuários humanos, enquanto o Sigma se concentra mais na especialização e estabilidade dos agentes de IA em áreas específicas, refletindo uma mudança de amplitude para profundidade, que se alinha melhor às necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional ( Specification ), o nível de participação ( Engagement ) reflete se há um envolvimento estável e contínuo na interação prática, que é o suporte fundamental para a construção de confiança e eficácia subsequentes. A influência ( Influence ) diz respeito ao feedback da reputação gerado na comunidade ou rede após a participação, representando a credibilidade do agente e o efeito de disseminação. A avaliação monetária ( Monetary ) analisa se possui capacidade de acumulação de valor e estabilidade financeira dentro do sistema econômico, estabelecendo a base para um mecanismo de incentivo sustentável. Finalmente, a taxa de adoção ( Adoption ) é utilizada como uma expressão abrangente, representando o grau de aceitação do agente em uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo em camadas, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico dos Agentes de IA, permitindo assim uma avaliação quantitativa do desempenho e do valor da IA, convertendo a abstração de qualidade em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na colaboração com redes de agentes de IA conhecidas como Virtual, Elisa OS, Swarm, demonstrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de infraestruturas de IA confiáveis.
Proteção de Identidade - Mecanismo de Avaliação de Confiança
Num verdadeiro sistema de IA de alta resiliência e alta confiabilidade, o mais crítico não é apenas a construção da identidade, mas sim a verificação contínua da identidade. A Trusta.AI introduz um mecanismo de avaliação de confiança contínua, capaz de monitorar em tempo real agentes inteligentes já autenticados, para determinar se estão sob controle ilegal, se sofreram ataques ou se foram alvo de intervenção humana não autorizada. O sistema identifica desvios que podem ocorrer durante a operação do agente por meio de análise de comportamento e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Essa abordagem proativa assegura a detecção imediata de quaisquer desvios do comportamento esperado e aciona medidas de proteção automáticas para manter a integridade do agente.
A Trusta.AI estabeleceu um mecanismo de vigilância de segurança sempre online, que examina em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas estabelecidas.
Introdução ao produto
AgentGo
A Trusta.AI atribui uma identidade descentralizada a cada Agente de IA na cadeia (DID), e avalia e indexa a sua confiabilidade com base em dados de comportamento na cadeia, construindo um sistema de confiança verificável e rastreável para Agentes de IA. Através deste sistema, os usuários podem identificar e selecionar eficientemente agentes de qualidade, melhorando a experiência de uso. Atualmente, a Trusta completou a coleta e identificação de todos os Agentes de IA na rede, e emitiu identificadores descentralizados para eles, estabelecendo uma plataforma de índice unificado - AgentGo, promovendo ainda mais o desenvolvimento saudável do ecossistema de agentes inteligentes.
Consulta e verificação de identidade de usuários humanos:
Através do Dashboard fornecido pela Trusta.AI, os usuários humanos podem facilmente pesquisar a identidade e a pontuação de reputação de um AI Agent, avaliando sua confiabilidade.
Cenário de chat em grupo social: Em uma equipe de projeto que utiliza um Bot de IA para gerenciar a comunidade ou falar, os usuários da comunidade podem verificar através do Dashboard se a IA é um verdadeiro agente autônomo, evitando ser enganados ou manipulados por "falsas IAs".
2.Agente de IA chamada automaticamente de índice e validação:
As IA podem ler diretamente a interface de índice, permitindo a confirmação rápida da identidade e reputação uma da outra, garantindo a segurança da colaboração e da troca de informações.
Cenário de supervisão financeira: Se um agente de IA emitir moeda de forma autônoma, o sistema pode indexar diretamente seu DID e classificação, determinar se é um Agente de IA certificado e automaticamente vincular a certas plataformas, auxiliando no rastreamento da circulação de ativos e conformidade de emissão.
Cenário de votação de governança: ao introduzir a votação com IA nas propostas de governança, o sistema pode verificar se o iniciador ou participante da votação é um verdadeiro Agente de IA, evitando que os direitos de voto sejam controlados e abusados por humanos.
Empréstimos DeFi: Os contratos de empréstimo podem conceder a diferentes Agentes de IA empréstimos com base no sistema de pontuação SIGMA, formando relações financeiras nativas entre os agentes.
O AI Agent DID já não é apenas uma "identidade", mas sim a base subjacente para a construção de funções centrais como colaboração confiável, conformidade financeira e governança comunitária, tornando-se uma infraestrutura essencial para o desenvolvimento do ecossistema nativo de IA. Com a construção desse sistema, todos os nós confirmados como seguros e confiáveis formam uma rede interconectada, permitindo uma colaboração eficiente e interconexão de funções entre os AI Agents.
Baseada na Lei de Metcalfe, o valor da rede crescerá de forma exponencial, impulsionando a construção de um ecossistema de Agentes de IA mais eficiente, com uma base de confiança e capacidade de colaboração, permitindo o compartilhamento de recursos, reutilização de capacidades e valorização contínua entre os agentes.
AgentGo, como a primeira infraestrutura de identidade confiável voltada para Agentes de IA, está fornecendo um suporte essencial para a construção de um ecossistema inteligente de alta segurança e alta colaboração.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Trusta.AI constrói infraestrutura de identidade e confiança Web3 que atravessa a era humano-máquina
Trusta.AI: Atravessando a Lacuna de Confiança na Era Humano-Máquina
Introdução
Com o rápido desenvolvimento da infraestrutura de IA e o surgimento de estruturas de colaboração entre múltiplos agentes, os agentes on-chain impulsionados por IA estão rapidamente se tornando a principal forma de interação no Web3. Espera-se que, nos próximos 2 a 3 anos, esses Agentes de IA com capacidade de tomada de decisão autônoma completem a adoção em larga escala de transações e interações on-chain, podendo substituir 80% do comportamento humano on-chain, tornando-se verdadeiramente os "usuários" on-chain.
O Agente de IA está a remodelar a ordem na cadeia, a impulsionar a fluidez financeira e até a guiar votos de governança e tendências de mercado. Isto marca a transição do ecossistema Web3 de um paradigma centrado na "participação humana" para um novo paradigma de "simbiose homem-máquina".
No entanto, a rápida ascensão dos Agentes de IA trouxe desafios sem precedentes: como identificar e autenticar a identidade desses agentes? Como avaliar a credibilidade de seu comportamento? Em uma rede descentralizada e sem permissão, como garantir que esses agentes não sejam abusados, manipulados ou utilizados para ataques?
Assim, estabelecer uma infraestrutura em cadeia capaz de verificar a identidade e a reputação de Agentes de IA tornou-se a questão central na próxima fase da evolução do Web3. O design de identificação de identidade, mecanismos de reputação e estruturas de confiança determinará se os Agentes de IA conseguem realmente alcançar uma colaboração sem costura com humanos e plataformas, e desempenhar um papel sustentável no ecossistema futuro.
Análise do projeto
Descrição do Projeto
A Trusta.AI está dedicada a construir a infraestrutura de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o primeiro sistema de avaliação de valor do usuário Web3 - MEDIA Reputation Score, construindo o maior protocolo de autenticação de pessoas reais e reputação em cadeia do Web3. Oferece análise de dados em cadeia e serviços de autenticação de pessoas reais para várias principais blockchains, exchanges e protocolos de destaque. Já completou mais de 2,5 milhões de autenticações em cadeia em várias blockchains populares, tornando-se o maior protocolo de identidade do setor.
A Trusta está a expandir-se de Proof of Humanity para Proof of AI Agent, implementando um mecanismo triplo de estabelecimento de identidade, quantificação de identidade e proteção de identidade para realizar serviços financeiros e sociais em cadeia para AI Agents, construindo uma base de confiança confiável na era da inteligência artificial.
Infraestrutura de Confiança - Agente de IA DID
No futuro ecossistema Web3, os Agentes de IA desempenharão um papel crucial, pois poderão não apenas realizar interações e transações na blockchain, mas também realizar operações complexas fora da blockchain. No entanto, a forma de distinguir entre um verdadeiro Agente de IA e operações com intervenção humana está relacionada ao núcleo da confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes podem ser facilmente manipulados, fraudados ou abusados. É precisamente por isso que as múltiplas aplicações dos Agentes de IA em áreas como social, financeira e governança devem ser construídas sobre uma base sólida de autenticação de identidade.
Os cenários de aplicação dos Agentes de IA estão cada vez mais ricos, abrangendo várias áreas, como interação social, gestão financeira e tomada de decisões governamentais, com seu nível de autonomia e inteligência a aumentar continuamente. Por isso, é crucial garantir que cada agente inteligente possua uma identidade única e confiável (DID). A falta de uma validação de identidade eficaz pode levar a que Agentes de IA sejam usados de forma fraudulenta ou manipulados, resultando na perda de confiança e riscos de segurança.
Num futuro ecossistema Web3 totalmente impulsionado por agentes inteligentes, a autenticação de identidade não é apenas a pedra angular da segurança, mas também uma linha de defesa necessária para manter o funcionamento saudável de todo o ecossistema.
Como pioneira no setor, a Trusta.AI, com sua tecnologia de ponta e rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo completo de certificação de DID para Agentes de IA, proporcionando uma sólida garantia para o funcionamento confiável de agentes inteligentes, prevenindo efetivamente riscos potenciais e promovendo o desenvolvimento robusto da economia inteligente Web3.
Visão Geral do Projeto
Situação de financiamento
Janeiro de 2023: concluída a ronda de financiamento inicial de 3 milhões de dólares, liderada pela SevenX Ventures e Vision Plus Capital, com outros investidores incluindo HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre outros.
Junho de 2025: Conclusão de uma nova rodada de financiamento, com investidores incluindo ConsenSys, Starknet, GSR, UFLY Labs, entre outros.
Situação da equipe
Peet Chen: co-fundador e CEO, ex-vice-presidente do Ant Group, Chief Product Officer da Ant Security Technology, ex-gerente geral da plataforma de identidade digital global ZOLOZ.
Simon: cofundador e CTO, ex-responsável pelo laboratório de segurança de IA do Ant Group, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial em segurança e gestão de riscos.
A equipe possui um profundo acúmulo técnico e experiência prática em inteligência artificial e gestão de riscos de segurança, arquitetura de sistemas de pagamento e mecanismos de autenticação. Está há muito tempo dedicada à aplicação profunda de big data e algoritmos inteligentes na gestão de riscos de segurança, bem como ao design de protocolos de nível inferior e à otimização de segurança em ambientes de transação de alta concorrência, possuindo sólidas capacidades de engenharia e a habilidade de implementar soluções inovadoras.
Arquitetura Técnica
Análise técnica
Estabelecimento de Identidade - DID + TEE
Através de um plugin dedicado, cada Agente de IA obtém um identificador descentralizado único na cadeia (DID) e armazena-o com segurança em um ambiente de execução confiável (TEE). Neste ambiente de caixa preta, dados críticos e processos de computação são completamente ocultados, operações sensíveis permanecem sempre privadas, e o exterior não pode espiar os detalhes internos da operação, construindo efetivamente uma barreira sólida para a segurança das informações do Agente de IA.
Para os agentes que foram gerados antes da integração do plugin, dependemos do mecanismo de pontuação abrangente na blockchain para a identificação. Já os agentes que integram o novo plugin podem obter diretamente a "certificação de identidade" emitida pelo DID, estabelecendo assim um sistema de identidade de Agente de IA que é autônomo, autêntico e imutável.
Quantificação de Identidade - Estrutura SIGMA inovadora
A equipe Trusta mantém sempre os princípios de avaliação rigorosa e análise quantitativa, empenhando-se em criar um sistema de autenticação de identidade profissional e confiável.
A equipe Trusta construiu e validou a eficácia do modelo MEDIA Score no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil do usuário na blockchain a partir de cinco dimensões, a saber: valor de interação (Monetary), engajamento (Engagement), diversidade (Diversity), identidade (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário on-chain que é justo, objetivo e quantificável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, já foi amplamente adotado por várias blockchains líderes como um importante critério de referência na seleção de qualificações para a distribuição de airdrops. Ele não se concentra apenas no valor das interações, mas também abrange indicadores multidimensionais como nível de atividade, diversidade de contratos, características de identidade e idade da conta, ajudando as equipes de projeto a identificar com precisão usuários de alto valor e a melhorar a eficiência e a equidade na distribuição de incentivos, refletindo plenamente sua autoridade e reconhecimento no setor.
Com base na construção bem-sucedida do sistema de avaliação de usuários humanos, a Trusta transferiu e atualizou a experiência do MEDIA Score para o cenário de Agentes de IA, estabelecendo um sistema de avaliação Sigma mais adequado à lógica de comportamento dos agentes inteligentes.
O mecanismo de pontuação Sigma constrói um sistema de avaliação de ciclo lógico que vai de "capacidade" a "valor" com base em cinco grandes dimensões. O MEDIA enfatiza a avaliação do envolvimento multifacetado dos usuários humanos, enquanto o Sigma se concentra mais na especialização e estabilidade dos agentes de IA em áreas específicas, refletindo uma mudança de amplitude para profundidade, que se alinha melhor às necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional ( Specification ), o nível de participação ( Engagement ) reflete se há um envolvimento estável e contínuo na interação prática, que é o suporte fundamental para a construção de confiança e eficácia subsequentes. A influência ( Influence ) diz respeito ao feedback da reputação gerado na comunidade ou rede após a participação, representando a credibilidade do agente e o efeito de disseminação. A avaliação monetária ( Monetary ) analisa se possui capacidade de acumulação de valor e estabilidade financeira dentro do sistema econômico, estabelecendo a base para um mecanismo de incentivo sustentável. Finalmente, a taxa de adoção ( Adoption ) é utilizada como uma expressão abrangente, representando o grau de aceitação do agente em uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo em camadas, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico dos Agentes de IA, permitindo assim uma avaliação quantitativa do desempenho e do valor da IA, convertendo a abstração de qualidade em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na colaboração com redes de agentes de IA conhecidas como Virtual, Elisa OS, Swarm, demonstrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de infraestruturas de IA confiáveis.
Proteção de Identidade - Mecanismo de Avaliação de Confiança
Num verdadeiro sistema de IA de alta resiliência e alta confiabilidade, o mais crítico não é apenas a construção da identidade, mas sim a verificação contínua da identidade. A Trusta.AI introduz um mecanismo de avaliação de confiança contínua, capaz de monitorar em tempo real agentes inteligentes já autenticados, para determinar se estão sob controle ilegal, se sofreram ataques ou se foram alvo de intervenção humana não autorizada. O sistema identifica desvios que podem ocorrer durante a operação do agente por meio de análise de comportamento e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Essa abordagem proativa assegura a detecção imediata de quaisquer desvios do comportamento esperado e aciona medidas de proteção automáticas para manter a integridade do agente.
A Trusta.AI estabeleceu um mecanismo de vigilância de segurança sempre online, que examina em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas estabelecidas.
Introdução ao produto
AgentGo
A Trusta.AI atribui uma identidade descentralizada a cada Agente de IA na cadeia (DID), e avalia e indexa a sua confiabilidade com base em dados de comportamento na cadeia, construindo um sistema de confiança verificável e rastreável para Agentes de IA. Através deste sistema, os usuários podem identificar e selecionar eficientemente agentes de qualidade, melhorando a experiência de uso. Atualmente, a Trusta completou a coleta e identificação de todos os Agentes de IA na rede, e emitiu identificadores descentralizados para eles, estabelecendo uma plataforma de índice unificado - AgentGo, promovendo ainda mais o desenvolvimento saudável do ecossistema de agentes inteligentes.
Através do Dashboard fornecido pela Trusta.AI, os usuários humanos podem facilmente pesquisar a identidade e a pontuação de reputação de um AI Agent, avaliando sua confiabilidade.
2.Agente de IA chamada automaticamente de índice e validação:
As IA podem ler diretamente a interface de índice, permitindo a confirmação rápida da identidade e reputação uma da outra, garantindo a segurança da colaboração e da troca de informações.
O AI Agent DID já não é apenas uma "identidade", mas sim a base subjacente para a construção de funções centrais como colaboração confiável, conformidade financeira e governança comunitária, tornando-se uma infraestrutura essencial para o desenvolvimento do ecossistema nativo de IA. Com a construção desse sistema, todos os nós confirmados como seguros e confiáveis formam uma rede interconectada, permitindo uma colaboração eficiente e interconexão de funções entre os AI Agents.
Baseada na Lei de Metcalfe, o valor da rede crescerá de forma exponencial, impulsionando a construção de um ecossistema de Agentes de IA mais eficiente, com uma base de confiança e capacidade de colaboração, permitindo o compartilhamento de recursos, reutilização de capacidades e valorização contínua entre os agentes.
AgentGo, como a primeira infraestrutura de identidade confiável voltada para Agentes de IA, está fornecendo um suporte essencial para a construção de um ecossistema inteligente de alta segurança e alta colaboração.
![Tr