AI+Web3 collaboratif : Déverrouiller une nouvelle configuration des données et de la Puissance de calcul

IA+Web3 : Tours et places

Points clés

  1. Les projets Web3 basés sur l'IA deviennent des cibles d'attraction de capitaux sur les marchés primaire et secondaire.

  2. Les opportunités de Web3 dans l'industrie de l'IA se manifestent par : l'utilisation d'incitations distribuées pour coordonner l'offre potentielle dans la longue traîne, impliquant des données, du stockage et du calcul ; en même temps, établir des modèles open source ainsi qu'un marché décentralisé pour les agents IA.

  3. L'intelligence artificielle est principalement appliquée dans l'industrie Web3 pour la finance sur la blockchain (paiements cryptographiques, transactions, analyse de données) ainsi que pour assister le développement.

  4. L'utilité de l'IA et du Web3 se manifeste dans leur complémentarité : le Web3 devrait lutter contre la centralisation de l'IA, tandis que l'IA devrait aider le Web3 à sortir de son cadre.

AI+Web3 : Tours et places

Introduction

Au cours des deux dernières années, le développement de l'IA a montré une tendance à s'accélérer. La vague d'intelligence artificielle générative déclenchée par Chatgpt a également provoqué de grandes ondulations dans le domaine du Web3.

Sous l'impulsion du concept d'IA, le financement du marché des cryptomonnaies a clairement rebondi. Selon les statistiques, au premier semestre 2024, 64 projets Web3+IA ont finalisé leur financement, parmi lesquels le système d'exploitation basé sur l'intelligence artificielle Zyber365 a atteint le montant de financement le plus élevé de 100 millions de dollars lors de la série A.

Le marché secondaire est encore plus prospère, les données du site d'agrégation de crypto-monnaies Coingecko montrent qu'en un peu plus d'un an, la capitalisation totale du secteur de l'IA a atteint 48,5 milliards de dollars, avec un volume de transactions sur 24 heures approchant 8,6 milliards de dollars. Les avancées technologiques majeures dans le domaine de l'IA apportent des bénéfices évidents, après la publication du modèle Sora d'OpenAI pour la conversion de texte en vidéo, le prix moyen du secteur de l'IA a augmenté de 151 %. L'effet IA s'étend également à l'un des secteurs d'attraction de la crypto-monnaie, le Meme : le premier concept de MemeCoin Agent IA, GOAT, a rapidement gagné en popularité et a atteint une valorisation de 1,4 milliard de dollars, suscitant ainsi une véritable frénésie des Memes IA.

La recherche et les sujets autour de l'IA + Web3 sont également très populaires, allant de l'IA + Depin aux Memecoins AI, en passant par les Agents IA et les DAO IA actuels. La rapidité de rotation des nouveaux récits rend difficile le suivi de l'émotion FOMO.

La combinaison de termes AI+Web3, remplie d'argent facile, de tendances et de fantasmes futurs, est inévitablement vue comme un mariage arrangé orchestré par le capital. Il est difficile de discerner sous cette façade brillante, s'agit-il vraiment du terrain des spéculateurs ou de la veille d'une explosion à l'aube ?

Pour répondre à cette question, la clé réside dans la réflexion : l'autre partie va-t-elle s'améliorer ? Peut-on bénéficier du modèle de l'autre ? Cet article tente d'examiner cette dynamique en s'appuyant sur les travaux des précédents : comment le Web3 peut-il jouer un rôle à chaque étape de la pile technologique de l'IA, et qu'est-ce que l'IA peut apporter de nouveau au Web3 ?

Les opportunités du Web3 sous la pile AI

Avant d'aborder ce sujet, nous devons comprendre la pile technologique des grands modèles d'IA :

Les grands modèles ressemblent au cerveau humain, et au début, ils sont comme des nourrissons qui viennent de naître, ayant besoin d'observer et d'absorber une quantité massive d'informations extérieures pour comprendre le monde, c'est la phase de "collecte" des données. Étant donné que les ordinateurs ne possèdent pas les multiples sens des humains, il est nécessaire de "prétraiter" les informations non annotées avant l'entraînement afin de les convertir en un format compréhensible par l'ordinateur.

Après avoir saisi les données, l'IA construit un modèle doté de capacités de compréhension et de prédiction grâce à "l'entraînement", semblable au processus par lequel un bébé comprend progressivement et apprend sur le monde extérieur, les paramètres du modèle étant comparables aux capacités linguistiques d'un bébé qui s'ajuste continuellement. Le contenu d'apprentissage est divisé par matière ou est obtenu par des échanges avec d'autres, permettant d'obtenir des retours et des corrections, ce qui mène à la phase de "fine-tuning".

Après que les enfants aient appris à parler, ils peuvent comprendre le sens et exprimer des sentiments et des idées dans de nouveaux dialogues, semblable au "raisonnement" des grands modèles d'IA, qui peuvent effectuer une analyse prédictive des nouvelles entrées linguistiques et textuelles. Les bébés expriment des sentiments, décrivent des objets et résolvent des problèmes grâce à leurs capacités linguistiques, de la même manière que les grands modèles d'IA, une fois formés, sont appliqués à diverses tâches spécifiques lors de la phase de raisonnement, telles que la classification d'images et la reconnaissance vocale.

L'Agent IA est donc plus proche de la prochaine forme des grands modèles - capable d'exécuter des tâches de manière autonome et de poursuivre des objectifs complexes, possédant non seulement des capacités de réflexion, mais aussi de mémoire, de planification, et étant capable d'utiliser des outils pour interagir avec le monde.

En réponse aux points douloureux de chaque pile AI, le Web3 a actuellement formé un écosystème interconnecté et multicouche, couvrant toutes les étapes du processus des modèles AI.

AI+Web3 : Tours et places

Couche de base : Airbnb de la puissance de calcul et des données

Puissance de calcul

Actuellement, l'un des coûts les plus élevés de l'IA est la puissance de calcul et l'énergie nécessaires pour entraîner les modèles et pour l'inférence.

Par exemple, le LLAMA3 de Meta nécessite 16 000 GPU NVIDIA H100 pendant 30 jours pour terminer l'entraînement. Le prix unitaire du modèle H100 80 Go est de 30 000 à 40 000 dollars, ce qui nécessite un investissement en matériel informatique de 400 à 700 millions de dollars (GPU + puces réseau), avec une consommation d'énergie de 1,6 milliard de kilowattheures par mois et des dépenses énergétiques proches de 20 millions de dollars.

La décompression de la puissance de calcul AI est également l'un des premiers domaines où Web3 croise l'AI - DePin (réseau d'infrastructure physique décentralisé). Le site de données DePin Ninja a répertorié plus de 1400 projets, et les projets représentatifs de partage de puissance GPU incluent io.net, Aethir, Akash, Render Network, etc.

La logique principale est la suivante : la plateforme permet aux propriétaires de ressources GPU inutilisées de contribuer leur puissance de calcul de manière décentralisée et sans autorisation. Grâce à un marché en ligne similaire à Uber ou Airbnb, l'utilisation des ressources GPU sous-utilisées est améliorée, et les utilisateurs finaux obtiennent des ressources de calcul efficaces à un coût réduit ; en même temps, un mécanisme de staking garantit que les fournisseurs de ressources sont soumis à des sanctions en cas de violation du contrôle de qualité ou d'interruption de réseau.

Les caractéristiques comprennent :

  • Regrouper les ressources GPU inutilisées : Les fournisseurs sont principalement des opérateurs de centres de données indépendants de taille moyenne et de petites tailles, des mines de cryptomonnaies, etc., qui disposent de ressources de calcul excédentaires, ainsi que du matériel de minage pour les mécanismes de consensus PoS, tels que les mineurs de FileCoin et d'ETH. Certains projets s'efforcent de démarrer avec des équipements à seuil d'entrée plus bas, comme exolab qui utilise des appareils locaux tels que MacBook, iPhone, iPad, pour établir un réseau de calcul pour l'inférence de grands modèles.

  • Marché de longue traîne axé sur la puissance de calcul AI : a. Côté technique : le marché de la puissance de calcul décentralisée est mieux adapté aux étapes d'inférence. L'entraînement dépend davantage de la capacité de traitement des données des GPU à très grande échelle, tandis que l'inférence exige des performances de calcul GPU relativement plus faibles, comme Aethir qui se concentre sur le rendu à faible latence et les applications d'inférence AI. b. Côté de la demande : les petites et moyennes entreprises de puissance de calcul ne formeront pas leurs propres grands modèles, mais choisiront plutôt d'optimiser et de peaufiner autour de quelques grands modèles principaux. Ces scénarios sont naturellement adaptés aux ressources de calcul inutilisées distribuées.

  • Propriété décentralisée : La signification de la technologie blockchain réside dans le fait que les propriétaires de ressources conservent toujours le contrôle sur leurs ressources, pouvant les ajuster de manière flexible en fonction des besoins, tout en générant des revenus.

Données

Les données sont la base de l'IA. Sans données, le calcul est aussi inutile qu'une plante flottante. La relation entre les données et le modèle est comme le dit populaire "Garbage in, Garbage out", la quantité de données et la qualité des entrées déterminent la qualité de la sortie finale du modèle. Pour l'entraînement des modèles d'IA actuels, les données déterminent la capacité linguistique du modèle, sa capacité de compréhension, voire ses valeurs et son expression humanisée. Actuellement, les problèmes de demande de données de l'IA se concentrent principalement sur les quatre aspects suivants :

  • Soif de données : l'entraînement des modèles d'IA dépend d'un volume massif d'entrées de données. Les données publiques montrent qu'OpenAI a entraîné GPT-4 avec un nombre de paramètres atteignant le trillion.

  • Qualité des données : Avec l'intégration de l'IA dans divers secteurs, la pertinence, la diversité, la spécialisation des données sectorielles et l'émergence de nouvelles sources de données telles que l'analyse des émotions sur les réseaux sociaux posent de nouvelles exigences en matière de qualité.

  • Problèmes de confidentialité et de conformité : les pays et les entreprises prennent progressivement conscience de l'importance des ensembles de données de qualité et commencent à imposer des restrictions sur le scraping des ensembles de données.

  • Coûts de traitement des données élevés : volume de données important, processus de traitement complexe. Des documents publics montrent que plus de 30 % des coûts de recherche et développement des entreprises d'IA sont consacrés à la collecte et au traitement des données de base.

Actuellement, les solutions web3 se manifestent dans les quatre aspects suivants :

  1. Collecte de données : Les données du monde réel fournies gratuitement s'épuisent rapidement, et les dépenses des entreprises d'IA pour les données augmentent d'année en année. Cependant, ces dépenses ne sont pas réinvesties au profit des véritables contributeurs de données, les plateformes profitant entièrement de la création de valeur apportée par les données, comme Reddit qui a réalisé un revenu total de 203 millions de dollars grâce à des accords de licence de données avec des entreprises d'IA.

Permettre aux utilisateurs qui contribuent réellement de participer également à la création de valeur apportée par les données, ainsi que d'obtenir des données plus privées et plus précieuses à moindre coût grâce à un réseau décentralisé et à des mécanismes d'incitation, est la vision du Web3.

  • Grass est une couche de données et un réseau décentralisés, permettant aux utilisateurs de fonctionner des nœuds Grass, de contribuer à la bande passante inutilisée et au trafic de relais pour capturer les données en temps réel de l'ensemble d'Internet, et d'obtenir des récompenses en jetons.

  • Vana introduit le concept unique de pools de liquidité de données (DLP), permettant aux utilisateurs de télécharger des données privées (comme les historiques d'achats, les habitudes de navigation, les activités sur les réseaux sociaux, etc.) dans un DLP spécifique et de choisir librement s'ils souhaitent autoriser des tiers spécifiques à les utiliser.

  • Dans PublicAI, les utilisateurs peuvent utiliser #AI或#Web3 comme étiquette de classification sur X et @PublicAI pour collecter des données.

  1. Prétraitement des données : dans le processus de traitement des données par l'IA, les données collectées sont souvent bruyantes et contiennent des erreurs, il est donc nécessaire de les nettoyer et de les convertir en un format utilisable avant d'entraîner le modèle, ce qui implique des tâches répétitives de normalisation, de filtrage et de traitement des valeurs manquantes. Cette étape est l'un des rares aspects manuels de l'industrie de l'IA, ayant donné naissance au métier de spécialiste en annotation de données. Avec l'augmentation des exigences de qualité des données par les modèles, le seuil d'entrée pour les spécialistes en annotation de données a également augmenté, et cette tâche est naturellement adaptée aux mécanismes d'incitation décentralisés de Web3.
  • Grass et OpenLayer envisagent tous deux d'intégrer cette étape clé de l'annotation des données.

  • Synesis a proposé le concept "Train2earn", soulignant l'importance de la qualité des données, les utilisateurs peuvent obtenir des récompenses en fournissant des données annotées, des commentaires ou d'autres formes d'entrée.

  • Le projet de annotation de données Sapien gamifie les tâches d'annotation et permet aux utilisateurs de miser des points pour en gagner davantage.

  1. Confidentialité et sécurité des données : il est nécessaire de clarifier que la confidentialité des données et la sécurité des données sont deux concepts différents. La confidentialité des données concerne le traitement des données sensibles, tandis que la sécurité des données protège les informations contre les accès non autorisés, la destruction et le vol. Ainsi, les avantages des technologies de confidentialité Web3 et les scénarios d'application potentiels se manifestent de deux manières : (1) entraînement de données sensibles ; (2) collaboration des données : plusieurs propriétaires de données peuvent participer ensemble à l'entraînement de l'IA sans avoir à partager les données brutes.

Les technologies de confidentialité les plus courantes dans le Web3 incluent :

  • Environnement d'exécution de confiance ( TEE ), comme Super Protocol.

  • Chiffrement homomorphe complet (FHE), par exemple BasedAI, Fhenix.io ou Inco Network.

  • La technologie de preuve à connaissance nulle (zk), comme le protocole Reclaim qui utilise la technologie zkTLS, génère des preuves à connaissance nulle du trafic HTTPS, permettant aux utilisateurs d'importer en toute sécurité des activités, des données de réputation et d'identité depuis des sites web externes sans exposer d'informations sensibles.

Cependant, le domaine en est encore à ses débuts, la plupart des projets sont encore en phase d'exploration, et le problème actuel est que les coûts de calcul sont trop élevés, par exemple :

  • Le cadre zkML EZKL nécessite environ 80 minutes pour générer la preuve du modèle 1M-nanoGPT.

  • Selon les données de Modulus Labs, les coûts de zkML sont plus de 1000 fois supérieurs à ceux du calcul pur.

  1. Stockage des données : Une fois les données obtenues, il est également nécessaire d'avoir un endroit pour stocker les données sur la chaîne, ainsi que le LLM généré à partir de ces données. En prenant la disponibilité des données (DA) comme problème central, avant la mise à niveau Danksharding d'Ethereum, son débit était de 0,08 Mo. En même temps, l'entraînement des modèles d'IA et l'inférence en temps réel nécessitent généralement un débit de données de 50 à 100 Go par seconde. Cette différence d'ordre de grandeur rend les solutions existantes sur la chaîne incapables de faire face aux "applications d'IA gourmandes en ressources".
  • 0g.AI est un projet représentatif de cette catégorie. C'est une solution de stockage centralisée conçue pour des exigences de haute performance en IA, avec des caractéristiques clés comprenant : haute performance et évolutivité, prise en charge du téléchargement et du téléchargement rapides de grands ensembles de données grâce à des technologies avancées de partitionnement (Sharding) et de codage de correction d'erreurs (Erasure Coding), avec une vitesse de transfert de données proche de 5 Go par seconde.

Middleware : Entraînement et inférence des modèles

Marché décentralisé de modèles open source

Le débat sur le fait que les modèles d'IA soient open source ou fermés n'a jamais disparu. L'innovation collective apportée par l'open source est un avantage que les modèles fermés ne peuvent égaler. Cependant, comment les modèles open source peuvent-ils augmenter la motivation des développeurs sans un modèle économique rentable ? C'est une direction qui mérite réflexion. Le fondateur de Baidu, Li Yanhong, a affirmé en avril de cette année que "les modèles open source deviendront de plus en plus obsolètes."

À cet égard, Web3 propose la possibilité d'un marché de modèles décentralisé et open source, c'est-à-dire de tokeniser le modèle lui-même, de conserver un certain pourcentage de tokens pour l'équipe et d'orienter une partie des flux de revenus futurs du modèle vers les détenteurs de tokens.

  • Le protocole Bittensor établit un marché P2P de modèles open source, composé de plusieurs "sous-réseaux". Les fournisseurs de ressources (calcul, collecte/stockage de données, talents en apprentissage automatique) rivalisent pour satisfaire les objectifs de chaque propriétaire de sous-réseau. Les sous-réseaux peuvent interagir et apprendre les uns des autres, réalisant ainsi une intelligence plus puissante. Les récompenses sont distribuées par vote de la communauté et sont ensuite réparties en fonction des performances concurrentielles.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 7
  • Partager
Commentaire
0/400
LiquidityNinjavip
· Il y a 2h
prendre les gens pour des idiots je suis juste un obstiné
Voir l'originalRépondre0
metaverse_hermitvip
· Il y a 21h
Gagner de l'argent, ce n'est pas déshonorant.
Voir l'originalRépondre0
OnchainHolmesvip
· Il y a 21h
Ah, cette vague de spéculation revient !
Voir l'originalRépondre0
RektRecordervip
· Il y a 21h
Le capital a de nouveau senti l'odeur des pigeons.
Voir l'originalRépondre0
SilentObservervip
· Il y a 21h
Cette vague d'IA est vraiment solide.
Voir l'originalRépondre0
GasFeeCrybabyvip
· Il y a 21h
Quand est-ce que ça va chuter ?
Voir l'originalRépondre0
SchroedingerMinervip
· Il y a 21h
Blockchain bruits de fond Mineur heureux
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)