# AI業界の進化とブロックチェーン融合の展望人工知能業界は最近、目覚ましい進展を遂げており、第四次産業革命の重要な推進力と見なされています。大規模言語モデルの出現は、あらゆる業界の作業効率を著しく向上させ、ボストンコンサルティンググループは、GPTがアメリカ全体の生産性を約20%向上させたと考えています。同時に、大モデルが持つ一般化能力は、過去の精密なコーディング方式とは異なる全く新しいソフトウェア設計のパラダイムと見なされています。現在のソフトウェア設計は、より広範なモダリティの入力と出力をサポートできる、一般化能力の高い大モデルフレームワークをより多く採用しています。深層学習技術はAI業界に新たな繁栄をもたらし、この熱潮は徐々に暗号通貨業界にも広がっています。本報告はAI業界の発展の歴史、技術の分類、そして深層学習技術が業界に与える影響について深く探討します。我々は深層学習分野におけるGPU、クラウドコンピューティング、データソース、エッジデバイスなどの産業チェーンの上下流の現状と発展のトレンドを分析します。同時に、我々は本質的に暗号通貨とAI業界の関連性について探討し、暗号通貨に関連するAI産業チェーンの構造を整理します。## AI業界の発展史AI業界は20世紀50年代から始まり、学術界と産業界は異なる時期や異なる学問的背景の下で、人工知能を実現するためのさまざまな流派を発展させてきました。現代の人工知能技術は主に「機械学習」という用語を採用しており、その核心理念は、特定のタスクにおいてデータを通じて機械が繰り返し反復することでシステムのパフォーマンスを向上させることです。主なステップには、データをアルゴリズムに入力し、データを利用してモデルを訓練し、モデルをテストして展開し、最後にモデルを使用して自動予測タスクを完了することが含まれます。現在、機械学習には主に3つの流派があり、それぞれ結合主義、記号主義、行動主義と呼ばれ、人間の神経系、思考、行動を模倣しています。その中で、神経ネットワークを代表とする結合主義が現在主導的な地位を占めており(、深層学習とも呼ばれています)。神経ネットワークのアーキテクチャは、入力層、出力層、そして複数の隠れ層を含み、層の数と神経元(のパラメータ)の数が十分に多い場合、複雑な一般的なタスクを適合させることができます。データを継続的に入力して神経元のパラメータを調整することで、最終的に神経元は最適な状態に達し、これが「深層」という言葉の由来でもあります - 十分な層数と神経元があること。神経ネットワークに基づく深層学習技術も、初期の神経ネットワークからフィードフォワード神経ネットワーク、RNN、CNN、GANを経て、最終的に現代の大規模モデルであるGPTなどで使用されるTransformer技術に至るまで、多くのイテレーションと進化を経てきました。Transformer技術は神経ネットワークの進化の一方向であり、様々なモダリティ((音声、動画、画像など)のデータを対応する数値表現にエンコードするための変換器)を追加し、その後、神経ネットワークに入力して、神経ネットワークがあらゆるタイプのデータにフィットできるようにし、多モーダル処理を実現します。! [新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-7e025deb1fddcd5fa716b6f144701074)AIの発展は3回の技術の波を経験しました:第一次浪潮は20世紀60年代に発生し、シンボリズム技術によって引き起こされ、汎用自然言語処理と人間とコンピュータの対話の問題を解決しました。同時期に、専門家システムが誕生し、アメリカ航空宇宙局が開発したDENDRAL化学専門家システムなどがあります。第二次浪潮は20世紀90年代に発生し、ベイズネットワークと行動に基づくロボティクスが提案され、行動主義の誕生を示しました。1997年、IBMのディープブルーがチェスのチャンピオン、カスパロフを打ち負かし、人工知能の重要なマイルストーンと見なされました。第三次浪潮は2006年に始まりました。深層学習の概念が提唱され、人工神経ネットワークをアーキテクチャとしてデータの表現学習が行われました。その後、深層学習アルゴリズムは進化し続け、RNN、GANからTransformerやStable Diffusionまで、この技術の波を形作り、連結主義の全盛期でもありました。期間中にいくつかの象徴的な出来事が発生しました:- 2011年、IBMのWatsonが『危険な境界』のクイズ番組で人間の選手を打ち負かしました。- 2014年、GoodfellowはGAN(生成的な敵対的ネットワーク)を提案しました。- 2015年、ヒントンらが『ネイチャー』において深層学習アルゴリズムを提案し、大きな反響を呼んだ。OpenAIが設立される。- 2016年、AlphaGoは囲碁の世界チャンピオン李世石に勝利した。- 2017年、GoogleがTransformerアルゴリズムを提案し、大規模言語モデルが登場し始めました。- 2018年、OpenAIはGPTをリリースし、DeepMindはAlphaFoldをリリースしました。- 2019年、OpenAIはGPT-2をリリースしました。- 2020年、OpenAIはGPT-3をリリースしました。- 2023年、GPT-4を基にしたChatGPTがリリースされ、迅速に1億ユーザーに達しました。! [新参者科学人気丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c)## ディープラーニング産業チェーン現在の大規模言語モデルは、主に神経ネットワークに基づく深層学習方法を採用しています。GPTを代表とする大モデルは、新たな人工知能ブームを引き起こし、多くのプレイヤーがこの分野に参入し、市場はデータと計算能力の需要が急増しています。本節では、深層学習アルゴリズムの産業チェーンの構成、および上流と下流の現状、供給と需要の関係、未来の発展について探ります。Transformer技術に基づくGPTなどの大規模言語モデル(LLMs)の訓練は、主に3つのステップに分かれています:1. プリトレーニング: 大量のデータを入力してニューロンの最適なパラメータを見つけます。このプロセスは最も計算力を消費し、さまざまなパラメータを反復的に試す必要があります。2. ファインチューニング: 少量だが高品質なデータを使用して訓練し、モデルの出力品質を向上させる。3. 強化学習: "報酬モデル"を構築して大モデルの出力品質を評価し、このモデルを通じて大モデルのパラメータを自動的に反復させることができます。時には人間の介入による評価も必要です。要するに、事前トレーニングはデータ量の要求が高く、最も多くのGPU計算能力を消費します;ファインチューニングはパラメータを改善するために高品質のデータが必要です;強化学習は報酬モデルを通じてパラメータを反復的にイテレーションして出力品質を向上させます。大規模モデルの性能に影響を与える主な要因は、パラメータの数、データの量と質、計算能力の3つです。この3つは、大規模モデルの結果の質と一般化能力を共同で決定します。パラメータの数をp、データの量をn(トークン数として計算)すると、経験則を用いて必要な計算量を推定し、必要な計算能力とトレーニング時間を予測できます。計算能力は通常Flopsを基本単位として表し、一回の浮動小数点演算を代表します。実践的な経験に基づくと、大きなモデルを一度事前訓練するには約6np Flopsが必要です。推論(の入力データがモデル出力を待つプロセス)には2np Flopsが必要です。初期のAIトレーニングは主にCPUチップを使用していましたが、後にNvidiaのA100、H100などのGPUに徐々に置き換えられました。GPUはエネルギー効率でCPUを大きく上回り、主にTensor Coreモジュールを通じて浮動小数点演算を行います。チップの計算能力は通常、FP16/FP32精度でのFlopsで測定されます。GPT-3を例にすると、1750億個のパラメータと1800億個のトークンのデータ量(は約570GB)です。1回の事前トレーニングには3.15*10^22 Flopsが必要で、Nvidia A100 SXMチップ1枚で584日かかります。GPT-4のパラメータ量はGPT-3の10倍で、データ量も10倍に増加しているため、100倍以上のチップ性能が必要になる可能性があります。大規模モデルのトレーニングでは、データストレージも課題となります。GPUメモリは通常小さく(、例えばA100は80GB)であり、すべてのデータとモデルパラメータを格納することができません。したがって、チップの帯域幅、すなわちハードディスクとメモリ間のデータ転送速度を考慮する必要があります。複数のGPUによる協調トレーニングでは、チップ間のデータ転送速度も非常に重要です。! 【新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-0c9bdea33a39a2c07d1f06760ed7e804)深層学習産業チェーンは主に以下のいくつかの段階を含みます:1. ハードウェアGPUプロバイダー: 現在、Nvidiaが絶対的なリーダーです。学術界では主に消費者向けGPU(、例えばRTXシリーズ)が使用され、産業界では主にH100、A100などの専門チップが使用されています。Googleも独自にTPUチップを開発しています。2. クラウドサービスプロバイダー:資金の限られたAI企業に柔軟な計算能力とホスティングトレーニングソリューションを提供します。主に三つのカテゴリーに分かれます: 従来のクラウドベンダー( 例えばAWS、Google Cloud、Azure)、垂直AIクラウド計算プラットフォーム( 例えばCoreWeave、Lambda)、推論サービスプロバイダー( 例えばTogether.ai、Fireworks.ai)。3. トレーニングデータソースプロバイダー: 大規模モデルに大量のデータまたは高品質のデータを提供します。GoogleやRedditなど、大量のデータを持つ企業が注目されています。また、特定の分野のモデルにデータを提供する専門のデータラベリング会社もあります。4. データベースプロバイダー: AIトレーニング推論タスクは主に"ベクトルデータベース"を使用し、大量の高次元ベクトルデータを効率的に保存およびインデックス化します。主なプレーヤーにはChroma、Zilliz、Pinecone、Weaviateなどが含まれます。5. エッジデバイス: GPUクラスターに対して冷却と電力供給のサポートを提供します。エネルギー供給(には地熱、 hydrogen エネルギー、核エネルギー)が含まれ、冷却システム(には液体冷却技術)が含まれます。6. アプリケーション: 現在、AIアプリケーションは主に検索、質問応答などの分野に集中しており、リテンション率とアクティブ率は一般的に従来のインターネットアプリケーションよりも低いです。アプリケーションは主に専門消費者、企業、一般消費者の3つのカテゴリに分かれています。! [新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-609c5dd6ee0abcec6bf9c118d7741867)## 暗号通貨とAIの関係ブロックチェーン技術の核心は去中心化と去信任化です。ビットコインは去信任の価値移転システムを創造し、イーサリアムはさらに去中心化、去信任のスマートコントラクトプラットフォームを実現しました。本質的に、ブロックチェーンネットワークは価値ネットワークであり、各取引は基盤となるトークンを基にした価値変換です。従来のインターネットでは、価値はP/Eなどの指標によって株価に反映されます。しかし、ブロックチェーンネットワークでは、原生トークン(はETH)のように、ネットワークの多次元的な価値を表現し、単にステーキング報酬を得るだけでなく、価値交換の媒介、価値保存の媒介、ネットワーク活動の消費財などとしても利用されます。トークンエコノミクス(は、エコシステムの決済物)のネイティブトークン(の相対的な価値を定義します。各次元を個別に価格設定することはできませんが、トークンの価格は多次元の価値を総合的に反映しています。一度ネットワークにトークンを付与し流通させると、従来の株式をはるかに超える価値の獲得が実現できます。トークンエコノミクスの魅力は、あらゆる機能やアイデアに価値を与えることができる点にあります。それは価値を再定義し、発見するものであり、AIを含むさまざまな業界にとって非常に重要です。AI産業においては、トークンの発行が産業チェーンの各ステージの価値を再構築し、より多くの人々がニッチな分野に深く取り組むことを促すことができます。また、トークンはインフラストラクチャーに追加の価値を提供し、「太ったプロトコルと細いアプリケーション」のパラダイムの形成を促進します。ブロックチェーン技術の不可篡改で信頼不要な特性は、AI業界にも実際の価値をもたらすことができます。例えば、ユーザーのプライバシーを保護する前提でモデルがデータを使用することを許可したり、グローバルなネットワークを通じて余剰GPU計算能力を分配し、残余価値を再発見することができます。総じて、トークンエコノミクスは価値の再構築と発見に役立ち、分散型台帳は信頼の問題を解決し、価値をグローバルに再流動させることができます。この組み合わせはAI産業に新たな可能性をもたらしました。! [新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/social/moments-f37fb0100218188368f4d31940aab2a3(## 仮想通貨業界におけるAI業界チェーンの概要1. GPU供給側:主要プロジェクトにはRenderやGolemなどがあります。Renderは比較的成熟したプロジェクトとして、主に非大モデルのビデオレンダリングタスクに焦点を当てています。GPUクラウドコンピューティング市場は、AIモデルのトレーニングや推論だけでなく、従来のレンダリングタスクにも対応でき、単一市場への依存リスクを低減しています。2. ハードウェア帯域幅:プロジェクトのMeson Networkは、世界的な帯域幅共有ネットワークの構築を試みています。しかし、共有帯域幅は大規模モデルのトレーニングにとっては疑似需要である可能性があり、地理的な位置による遅延がトレーニング効率に大きな影響を与えるからです。3. データ:主要プロジェクトにはEpiK Protocol、Synesis One、Masaなどがあります。従来のデータ企業と比較して、ブロックチェーンデータプロバイダーはデータ収集において優位性を持ち、個人データに価格を付け、トークンを通じてユーザーのデータ貢献を奨励することができます。4. ZKMLの:プロジェクトとしてZama、TruthGPTなどがゼロ知識証明技術を使用してプライバシー計算とトレーニングを実現しています。また、一般的なZKプロジェクトであるAxiom、Risc Zeroも注目に値します。5. AIアプリケーション:現在、主に従来のブロックチェーンアプリケーションが自動化と汎用性を組み合わせています。AIエージェント)はFetch.AI(のように、ユーザーとさまざまなアプリケーションの橋渡しを行い、早期に恩恵を受けることが期待されています。6. AIパブリックチェーン:たとえば、Tensor です。
AIとブロックチェーンの融合:産業チェーンの価値と未来の発展トレンドの再構築
AI業界の進化とブロックチェーン融合の展望
人工知能業界は最近、目覚ましい進展を遂げており、第四次産業革命の重要な推進力と見なされています。大規模言語モデルの出現は、あらゆる業界の作業効率を著しく向上させ、ボストンコンサルティンググループは、GPTがアメリカ全体の生産性を約20%向上させたと考えています。同時に、大モデルが持つ一般化能力は、過去の精密なコーディング方式とは異なる全く新しいソフトウェア設計のパラダイムと見なされています。現在のソフトウェア設計は、より広範なモダリティの入力と出力をサポートできる、一般化能力の高い大モデルフレームワークをより多く採用しています。深層学習技術はAI業界に新たな繁栄をもたらし、この熱潮は徐々に暗号通貨業界にも広がっています。
本報告はAI業界の発展の歴史、技術の分類、そして深層学習技術が業界に与える影響について深く探討します。我々は深層学習分野におけるGPU、クラウドコンピューティング、データソース、エッジデバイスなどの産業チェーンの上下流の現状と発展のトレンドを分析します。同時に、我々は本質的に暗号通貨とAI業界の関連性について探討し、暗号通貨に関連するAI産業チェーンの構造を整理します。
AI業界の発展史
AI業界は20世紀50年代から始まり、学術界と産業界は異なる時期や異なる学問的背景の下で、人工知能を実現するためのさまざまな流派を発展させてきました。
現代の人工知能技術は主に「機械学習」という用語を採用しており、その核心理念は、特定のタスクにおいてデータを通じて機械が繰り返し反復することでシステムのパフォーマンスを向上させることです。主なステップには、データをアルゴリズムに入力し、データを利用してモデルを訓練し、モデルをテストして展開し、最後にモデルを使用して自動予測タスクを完了することが含まれます。
現在、機械学習には主に3つの流派があり、それぞれ結合主義、記号主義、行動主義と呼ばれ、人間の神経系、思考、行動を模倣しています。その中で、神経ネットワークを代表とする結合主義が現在主導的な地位を占めており(、深層学習とも呼ばれています)。神経ネットワークのアーキテクチャは、入力層、出力層、そして複数の隠れ層を含み、層の数と神経元(のパラメータ)の数が十分に多い場合、複雑な一般的なタスクを適合させることができます。データを継続的に入力して神経元のパラメータを調整することで、最終的に神経元は最適な状態に達し、これが「深層」という言葉の由来でもあります - 十分な層数と神経元があること。
神経ネットワークに基づく深層学習技術も、初期の神経ネットワークからフィードフォワード神経ネットワーク、RNN、CNN、GANを経て、最終的に現代の大規模モデルであるGPTなどで使用されるTransformer技術に至るまで、多くのイテレーションと進化を経てきました。Transformer技術は神経ネットワークの進化の一方向であり、様々なモダリティ((音声、動画、画像など)のデータを対応する数値表現にエンコードするための変換器)を追加し、その後、神経ネットワークに入力して、神経ネットワークがあらゆるタイプのデータにフィットできるようにし、多モーダル処理を実現します。
! 新人科学丨AI×暗号:ゼロからピークまで
AIの発展は3回の技術の波を経験しました:
第一次浪潮は20世紀60年代に発生し、シンボリズム技術によって引き起こされ、汎用自然言語処理と人間とコンピュータの対話の問題を解決しました。同時期に、専門家システムが誕生し、アメリカ航空宇宙局が開発したDENDRAL化学専門家システムなどがあります。
第二次浪潮は20世紀90年代に発生し、ベイズネットワークと行動に基づくロボティクスが提案され、行動主義の誕生を示しました。1997年、IBMのディープブルーがチェスのチャンピオン、カスパロフを打ち負かし、人工知能の重要なマイルストーンと見なされました。
第三次浪潮は2006年に始まりました。深層学習の概念が提唱され、人工神経ネットワークをアーキテクチャとしてデータの表現学習が行われました。その後、深層学習アルゴリズムは進化し続け、RNN、GANからTransformerやStable Diffusionまで、この技術の波を形作り、連結主義の全盛期でもありました。
期間中にいくつかの象徴的な出来事が発生しました:
! 新参者科学人気丨AI×暗号:ゼロからピークまで
ディープラーニング産業チェーン
現在の大規模言語モデルは、主に神経ネットワークに基づく深層学習方法を採用しています。GPTを代表とする大モデルは、新たな人工知能ブームを引き起こし、多くのプレイヤーがこの分野に参入し、市場はデータと計算能力の需要が急増しています。本節では、深層学習アルゴリズムの産業チェーンの構成、および上流と下流の現状、供給と需要の関係、未来の発展について探ります。
Transformer技術に基づくGPTなどの大規模言語モデル(LLMs)の訓練は、主に3つのステップに分かれています:
プリトレーニング: 大量のデータを入力してニューロンの最適なパラメータを見つけます。このプロセスは最も計算力を消費し、さまざまなパラメータを反復的に試す必要があります。
ファインチューニング: 少量だが高品質なデータを使用して訓練し、モデルの出力品質を向上させる。
強化学習: "報酬モデル"を構築して大モデルの出力品質を評価し、このモデルを通じて大モデルのパラメータを自動的に反復させることができます。時には人間の介入による評価も必要です。
要するに、事前トレーニングはデータ量の要求が高く、最も多くのGPU計算能力を消費します;ファインチューニングはパラメータを改善するために高品質のデータが必要です;強化学習は報酬モデルを通じてパラメータを反復的にイテレーションして出力品質を向上させます。
大規模モデルの性能に影響を与える主な要因は、パラメータの数、データの量と質、計算能力の3つです。この3つは、大規模モデルの結果の質と一般化能力を共同で決定します。パラメータの数をp、データの量をn(トークン数として計算)すると、経験則を用いて必要な計算量を推定し、必要な計算能力とトレーニング時間を予測できます。
計算能力は通常Flopsを基本単位として表し、一回の浮動小数点演算を代表します。実践的な経験に基づくと、大きなモデルを一度事前訓練するには約6np Flopsが必要です。推論(の入力データがモデル出力を待つプロセス)には2np Flopsが必要です。
初期のAIトレーニングは主にCPUチップを使用していましたが、後にNvidiaのA100、H100などのGPUに徐々に置き換えられました。GPUはエネルギー効率でCPUを大きく上回り、主にTensor Coreモジュールを通じて浮動小数点演算を行います。チップの計算能力は通常、FP16/FP32精度でのFlopsで測定されます。
GPT-3を例にすると、1750億個のパラメータと1800億個のトークンのデータ量(は約570GB)です。1回の事前トレーニングには3.15*10^22 Flopsが必要で、Nvidia A100 SXMチップ1枚で584日かかります。GPT-4のパラメータ量はGPT-3の10倍で、データ量も10倍に増加しているため、100倍以上のチップ性能が必要になる可能性があります。
大規模モデルのトレーニングでは、データストレージも課題となります。GPUメモリは通常小さく(、例えばA100は80GB)であり、すべてのデータとモデルパラメータを格納することができません。したがって、チップの帯域幅、すなわちハードディスクとメモリ間のデータ転送速度を考慮する必要があります。複数のGPUによる協調トレーニングでは、チップ間のデータ転送速度も非常に重要です。
! 【新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp)
深層学習産業チェーンは主に以下のいくつかの段階を含みます:
ハードウェアGPUプロバイダー: 現在、Nvidiaが絶対的なリーダーです。学術界では主に消費者向けGPU(、例えばRTXシリーズ)が使用され、産業界では主にH100、A100などの専門チップが使用されています。Googleも独自にTPUチップを開発しています。
クラウドサービスプロバイダー:資金の限られたAI企業に柔軟な計算能力とホスティングトレーニングソリューションを提供します。主に三つのカテゴリーに分かれます: 従来のクラウドベンダー( 例えばAWS、Google Cloud、Azure)、垂直AIクラウド計算プラットフォーム( 例えばCoreWeave、Lambda)、推論サービスプロバイダー( 例えばTogether.ai、Fireworks.ai)。
トレーニングデータソースプロバイダー: 大規模モデルに大量のデータまたは高品質のデータを提供します。GoogleやRedditなど、大量のデータを持つ企業が注目されています。また、特定の分野のモデルにデータを提供する専門のデータラベリング会社もあります。
データベースプロバイダー: AIトレーニング推論タスクは主に"ベクトルデータベース"を使用し、大量の高次元ベクトルデータを効率的に保存およびインデックス化します。主なプレーヤーにはChroma、Zilliz、Pinecone、Weaviateなどが含まれます。
エッジデバイス: GPUクラスターに対して冷却と電力供給のサポートを提供します。エネルギー供給(には地熱、 hydrogen エネルギー、核エネルギー)が含まれ、冷却システム(には液体冷却技術)が含まれます。
アプリケーション: 現在、AIアプリケーションは主に検索、質問応答などの分野に集中しており、リテンション率とアクティブ率は一般的に従来のインターネットアプリケーションよりも低いです。アプリケーションは主に専門消費者、企業、一般消費者の3つのカテゴリに分かれています。
! 新人科学丨AI×暗号:ゼロからピークまで
暗号通貨とAIの関係
ブロックチェーン技術の核心は去中心化と去信任化です。ビットコインは去信任の価値移転システムを創造し、イーサリアムはさらに去中心化、去信任のスマートコントラクトプラットフォームを実現しました。本質的に、ブロックチェーンネットワークは価値ネットワークであり、各取引は基盤となるトークンを基にした価値変換です。
従来のインターネットでは、価値はP/Eなどの指標によって株価に反映されます。しかし、ブロックチェーンネットワークでは、原生トークン(はETH)のように、ネットワークの多次元的な価値を表現し、単にステーキング報酬を得るだけでなく、価値交換の媒介、価値保存の媒介、ネットワーク活動の消費財などとしても利用されます。
トークンエコノミクス(は、エコシステムの決済物)のネイティブトークン(の相対的な価値を定義します。各次元を個別に価格設定することはできませんが、トークンの価格は多次元の価値を総合的に反映しています。一度ネットワークにトークンを付与し流通させると、従来の株式をはるかに超える価値の獲得が実現できます。
トークンエコノミクスの魅力は、あらゆる機能やアイデアに価値を与えることができる点にあります。それは価値を再定義し、発見するものであり、AIを含むさまざまな業界にとって非常に重要です。AI産業においては、トークンの発行が産業チェーンの各ステージの価値を再構築し、より多くの人々がニッチな分野に深く取り組むことを促すことができます。また、トークンはインフラストラクチャーに追加の価値を提供し、「太ったプロトコルと細いアプリケーション」のパラダイムの形成を促進します。
ブロックチェーン技術の不可篡改で信頼不要な特性は、AI業界にも実際の価値をもたらすことができます。例えば、ユーザーのプライバシーを保護する前提でモデルがデータを使用することを許可したり、グローバルなネットワークを通じて余剰GPU計算能力を分配し、残余価値を再発見することができます。
総じて、トークンエコノミクスは価値の再構築と発見に役立ち、分散型台帳は信頼の問題を解決し、価値をグローバルに再流動させることができます。この組み合わせはAI産業に新たな可能性をもたらしました。
! [新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
仮想通貨業界におけるAI業界チェーンの概要
GPU供給側: 主要プロジェクトにはRenderやGolemなどがあります。Renderは比較的成熟したプロジェクトとして、主に非大モデルのビデオレンダリングタスクに焦点を当てています。GPUクラウドコンピューティング市場は、AIモデルのトレーニングや推論だけでなく、従来のレンダリングタスクにも対応でき、単一市場への依存リスクを低減しています。
ハードウェア帯域幅: プロジェクトのMeson Networkは、世界的な帯域幅共有ネットワークの構築を試みています。しかし、共有帯域幅は大規模モデルのトレーニングにとっては疑似需要である可能性があり、地理的な位置による遅延がトレーニング効率に大きな影響を与えるからです。
データ: 主要プロジェクトにはEpiK Protocol、Synesis One、Masaなどがあります。従来のデータ企業と比較して、ブロックチェーンデータプロバイダーはデータ収集において優位性を持ち、個人データに価格を付け、トークンを通じてユーザーのデータ貢献を奨励することができます。
ZKMLの: プロジェクトとしてZama、TruthGPTなどがゼロ知識証明技術を使用してプライバシー計算とトレーニングを実現しています。また、一般的なZKプロジェクトであるAxiom、Risc Zeroも注目に値します。
AIアプリケーション: 現在、主に従来のブロックチェーンアプリケーションが自動化と汎用性を組み合わせています。AIエージェント)はFetch.AI(のように、ユーザーとさまざまなアプリケーションの橋渡しを行い、早期に恩恵を受けることが期待されています。
AIパブリックチェーン: たとえば、Tensor です。