AI và Blockchain hòa nhập: Phân tích toàn diện từ chuỗi công nghiệp đến tokenomics

AI và Blockchain: Từ con số không đến đỉnh cao

Sự phát triển mạnh mẽ gần đây của ngành trí tuệ nhân tạo được coi là cuộc cách mạng công nghiệp lần thứ tư. Sự xuất hiện của các mô hình ngôn ngữ lớn đã nâng cao đáng kể hiệu quả của các ngành công nghiệp khác nhau, ước tính mang lại khoảng 20% sự cải thiện trong hiệu suất công việc tổng thể của Mỹ. Đồng thời, khả năng tổng quát của các mô hình lớn được coi là một hình thức thiết kế phần mềm mới, so với thiết kế mã chính xác trong quá khứ, phần mềm hiện nay thường sử dụng khung mô hình lớn tổng quát hơn, từ đó hỗ trợ nhiều chế độ đầu vào và đầu ra hơn. Công nghệ học sâu thực sự đã mang lại một làn sóng thịnh vượng mới cho ngành AI, và cơn sốt này cũng đã lan sang ngành công nghiệp tiền điện tử.

Bài viết này sẽ khám phá chi tiết về quá trình phát triển của ngành AI, phân loại công nghệ, cũng như ảnh hưởng sâu sắc của học sâu đối với ngành. Chúng tôi sẽ phân tích sâu về chuỗi công nghiệp học sâu, bao gồm GPU, điện toán đám mây, nguồn dữ liệu, thiết bị biên, v.v., phân tích tình hình phát triển và xu hướng của chúng. Ngoài ra, chúng tôi sẽ thảo luận về mối quan hệ giữa tiền điện tử và ngành AI từ bản chất, sắp xếp lại cấu trúc chuỗi công nghiệp AI liên quan đến tiền điện tử.

Người mới phổ cập丨AI x Crypto: Từ số không đến đỉnh cao

Lịch sử phát triển của ngành AI

Ngành công nghiệp AI bắt đầu vào những năm 50 của thế kỷ 20. Để hiện thực hóa tầm nhìn về trí tuệ nhân tạo, giới học thuật và công nghiệp đã phát triển ra nhiều con đường thực hiện khác nhau trong bối cảnh thời đại khác nhau.

Công nghệ trí tuệ nhân tạo hiện đại chủ yếu sử dụng thuật ngữ "học máy", với ý tưởng cốt lõi là cho phép máy móc cải thiện hiệu suất hệ thống thông qua việc lặp lại dữ liệu. Các bước chính bao gồm nhập dữ liệu vào thuật toán, huấn luyện mô hình, kiểm tra và triển khai mô hình, cuối cùng là sử dụng cho các nhiệm vụ dự đoán tự động.

Học máy hiện nay có ba trường phái chính: Liên kết học, Chủ nghĩa ký hiệu và Chủ nghĩa hành vi, lần lượt mô phỏng hệ thần kinh, tư duy và hành vi của con người. Hiện tại, Liên kết học đại diện bởi mạng nơ-ron đang chiếm ưu thế ( cũng được gọi là học sâu ). Kiến trúc mạng nơ-ron bao gồm lớp đầu vào, lớp đầu ra và nhiều lớp ẩn, khi số lượng lớp và số lượng tham số nơ-ron ( đủ lớn, nó có thể khớp với các nhiệm vụ phức tạp chung.

Công nghệ học sâu dựa trên mạng nơ-ron cũng đã trải qua nhiều lần lặp lại, từ mạng nơ-ron đầu tiên, đến mạng nơ-ron truyền tiếp, RNN, CNN, GAN, cuối cùng tiến hóa thành các mô hình lớn hiện đại như công nghệ Transformer được sử dụng trong GPT. Công nghệ Transformer là một hướng tiến hóa của mạng nơ-ron, đã thêm một bộ chuyển đổi, dùng để mã hóa dữ liệu từ các mô hình khác nhau như âm thanh, video, hình ảnh thành các biểu diễn số tương ứng, sau đó đưa vào mạng nơ-ron, từ đó thực hiện khả năng xử lý đa mô hình.

![Người mới phổ cập丨AI x Crypto:Từ số không đến đỉnh cao])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(

Sự phát triển của AI đã trải qua ba làn sóng công nghệ:

  1. Những năm 1960: Sự phát triển của công nghệ biểu tượng đã giải quyết được vấn đề xử lý ngôn ngữ tự nhiên và đối thoại giữa người và máy. Hệ thống chuyên gia cũng ra đời trong cùng thời gian.

  2. Những năm 1990: Mạng Bayes và Robot học dựa trên hành vi được đề xuất, đánh dấu sự ra đời của hành vi học. Năm 1997, IBM Deep Blue đánh bại nhà vô địch cờ vua, được coi là một cột mốc của AI.

  3. Từ năm 2006 đến nay: Khái niệm học sâu được đưa ra, các thuật toán dựa trên cấu trúc mạng nơ-ron nhân tạo dần tiến hóa, từ RNN, GAN đến Transformer và Stable Diffusion, đây là thời kỳ thịnh vượng của kết nối.

Trong những năm gần đây, một số sự kiện mang tính biểu tượng trong lĩnh vực AI bao gồm:

  • Năm 2015, thuật toán học sâu được công bố trên tạp chí "Nature", gây ra phản ứng lớn trong giới học thuật và công nghiệp.
  • Năm 2016, AlphaGo đã đánh bại nhà vô địch cờ vây thế giới Lee Sedol.
  • Năm 2017, Google phát hành bài báo về thuật toán Transformer, mô hình ngôn ngữ quy mô lớn bắt đầu xuất hiện.
  • Năm 2018-2020, OpenAI phát hành các mô hình trong series GPT, quy mô tham số liên tục tăng lên.
  • Vào tháng 1 năm 2023, ChatGPT dựa trên GPT-4 được ra mắt, đến tháng 3 đạt 100 triệu người dùng, trở thành ứng dụng đạt 100 triệu người dùng nhanh nhất trong lịch sử.

![新人科普丨AI x Crypto:从零到巅峰])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(

Chuỗi ngành công nghiệp học sâu

Các mô hình ngôn ngữ lớn hiện tại chủ yếu sử dụng phương pháp học sâu dựa trên mạng nơ-ron. Các mô hình lớn đại diện cho GPT đã kích thích một làn sóng mới của cơn sốt AI, thu hút nhiều người chơi tham gia vào lĩnh vực này. Nhu cầu về dữ liệu và sức mạnh tính toán trên thị trường đang gia tăng nhanh chóng, vì vậy chúng tôi sẽ khám phá cấu trúc chuỗi công nghiệp của các thuật toán học sâu, cũng như tình trạng, mối quan hệ cung cầu và phát triển trong tương lai của các bên hạ nguồn và thượng nguồn.

Đào tạo các mô hình ngôn ngữ lớn như GPT ) LLMs ( chủ yếu được chia thành ba bước:

  1. Huấn luyện trước: Nhập vào một lượng lớn dữ liệu để tìm kiếm các tham số tối ưu của nơ-ron, quá trình này tốn nhiều sức mạnh tính toán nhất.

  2. Tinh chỉnh: Sử dụng một lượng nhỏ nhưng dữ liệu chất lượng cao để đào tạo, nâng cao chất lượng đầu ra của mô hình.

  3. Học tăng cường: Xây dựng "mô hình thưởng" để sắp xếp kết quả đầu ra, dùng để lặp lại các tham số của mô hình lớn.

Ba yếu tố chính ảnh hưởng đến hiệu suất của mô hình lớn là: số lượng tham số, khối lượng và chất lượng dữ liệu, sức mạnh tính toán. Giả sử số lượng tham số là p, khối lượng dữ liệu là n) tính theo số lượng Token (, vậy có thể ước lượng lượng tính toán cần thiết thông qua quy tắc kinh nghiệm.

Công suất tính toán thường được tính bằng Flops, đại diện cho một phép toán số thực. Theo quy tắc kinh nghiệm, việc huấn luyện một mô hình lớn khoảng cần 6np Flops. Trong khi đó, quá trình suy diễn ) dữ liệu đầu vào chờ mô hình xuất ra khoảng cần 2np Flops.

Giai đoạn đầu chủ yếu sử dụng chip CPU để đào tạo, sau đó dần chuyển sang GPU, như chip A100, H100 của Nvidia. GPU thực hiện phép toán dấu phẩy động thông qua mô-đun Tensor Core, dữ liệu Flops dưới độ chính xác FP16/FP32 là chỉ số quan trọng để đo lường khả năng tính toán của chip.

Lấy GPT-3 làm ví dụ, nó có 175 tỷ tham số, 1800 tỷ Token dữ liệu. Một lần huấn luyện trước cần khoảng 3.1510^22 Flops, tức là 3.1510^10 TFLOPS. Sử dụng một con chip NVIDIA H100 SXM để huấn luyện trước một lần GPT-3 cần khoảng 584 ngày.

Có thể thấy việc đào tạo mô hình lớn cần một khối lượng tính toán khổng lồ, cần nhiều chip tiên tiến cùng nhau tính toán. Số lượng tham số và dữ liệu của GPT-4 gấp mười lần GPT-3, có thể cần hơn 100 lần sức mạnh tính toán của chip.

Trong quá trình đào tạo mô hình lớn, việc lưu trữ dữ liệu cũng gặp thách thức. Dữ liệu của GPT-3 chiếm khoảng 570GB, tham số chiếm khoảng 700GB. Bộ nhớ GPU thường nhỏ, ví dụ A100 là 80GB, không thể chứa toàn bộ dữ liệu, vì vậy cần xem xét băng thông của chip. Khi huấn luyện nhiều GPU, còn liên quan đến tốc độ truyền dữ liệu giữa các chip. Đôi khi, nút thắt hạn chế tốc độ huấn luyện không phải là khả năng tính toán, mà là tốc độ truyền dữ liệu.

Chuỗi ngành công nghiệp học sâu chủ yếu bao gồm các khâu sau:

( 1. Nhà cung cấp GPU phần cứng

NVIDIA đang ở vị trí dẫn đầu tuyệt đối trong lĩnh vực chip GPU AI. Trong giới học thuật, chủ yếu sử dụng GPU tiêu dùng ) như dòng RTX (, trong khi trong ngành công nghiệp, chủ yếu sử dụng các chip thương mại như H100, A100. Google cũng có chip TPU tự phát triển, nhưng chủ yếu được sử dụng cho dịch vụ Google Cloud.

Vào năm 2023, chip H100 của Nvidia vừa được phát hành đã nhận được nhiều đơn đặt hàng, không đủ cung ứng. Tính đến cuối năm 2023, số lượng đặt hàng H100 đã vượt quá 500.000 chiếc. Để thoát khỏi sự phụ thuộc vào Nvidia, Google đã dẫn đầu thành lập Liên minh CUDA, hy vọng cùng nhau phát triển GPU.

![Người mới phổ cập丨AI x Crypto:Từ con số không đến đỉnh cao])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(

) 2. Nhà cung cấp dịch vụ đám mây

Các nhà cung cấp dịch vụ đám mây mua một lượng lớn GPU để xây dựng các cụm tính toán hiệu suất cao, cung cấp sức mạnh tính toán linh hoạt và giải pháp đào tạo lưu trữ cho các doanh nghiệp AI có nguồn vốn hạn chế. Chủ yếu được chia thành ba loại:

  • Các nhà cung cấp đám mây lớn truyền thống: AWS, Google Cloud, Azure, v.v.
  • Nền tảng điện toán đám mây AI theo chiều dọc: CoreWeave, Lambda, v.v.
  • Nhà cung cấp dịch vụ suy luận: Together.ai, Fireworks.ai, v.v.

3. Nhà cung cấp nguồn dữ liệu đào tạo

Việc huấn luyện mô hình lớn cần một lượng dữ liệu khổng lồ. Một số công ty chuyên cung cấp dữ liệu huấn luyện cho các ngành khác nhau, chẳng hạn như dữ liệu chuyên ngành trong tài chính, y tế, hóa học và các lĩnh vực khác.

( 4. Nhà cung cấp cơ sở dữ liệu

AI đào tạo cần lưu trữ và xử lý hiệu quả khối lượng lớn dữ liệu phi cấu trúc, vì vậy đã xuất hiện các "cơ sở dữ liệu vector" chuyên dụng. Các người chơi chính bao gồm Chroma, Zilliz, Pinecone, v.v.

) 5. Thiết bị biên

Cụm GPU sẽ tạo ra một lượng lớn nhiệt, cần có hệ thống làm mát để đảm bảo hoạt động ổn định. Hiện tại, chủ yếu sử dụng làm mát bằng gió, nhưng hệ thống làm mát bằng chất lỏng đang được các nhà đầu tư ưa chuộng. Về cung cấp năng lượng, một số công ty công nghệ bắt đầu đầu tư vào năng lượng địa nhiệt, năng lượng hydro, năng lượng hạt nhân và các nguồn năng lượng sạch khác.

( 6. Ứng dụng AI

Hiện tại, sự phát triển của ứng dụng AI tương tự như ngành công nghiệp Blockchain, cơ sở hạ tầng đông đúc nhưng phát triển ứng dụng thì tương đối chậm. Mười ứng dụng AI hoạt động hàng tháng hàng đầu chủ yếu là sản phẩm tìm kiếm, các loại ứng dụng khác như mạng xã hội thì ít hơn. Tỷ lệ giữ chân người dùng của ứng dụng AI cũng thường thấp hơn so với các ứng dụng internet truyền thống.

Tổng thể, chuỗi công nghiệp học sâu đang phát triển nhanh chóng, nhưng cũng phải đối mặt với nhiều thách thức. Nhu cầu về sức mạnh tính toán tiếp tục tăng, tiêu thụ dữ liệu và năng lượng rất lớn, và các tình huống ứng dụng cần được mở rộng thêm. Trong tương lai, các khâu trong chuỗi công nghiệp sẽ tiếp tục tối ưu hóa và nâng cấp, nhằm hỗ trợ việc đào tạo và ứng dụng mô hình AI quy mô lớn hơn và hiệu quả hơn.

![Người mới phổ cập丨AI x Crypto: Từ số không đến đỉnh cao])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp###

Mối quan hệ giữa tiền điện tử và AI

Cốt lõi của công nghệ Blockchain là phi tập trung và phi tin cậy. Từ Bitcoin như một hệ thống tiền điện tử ngang hàng, đến nền tảng hợp đồng thông minh của Ethereum, Blockchain về cơ bản là một mạng lưới giá trị, mỗi giao dịch đều dựa trên sự trao đổi giá trị của token cơ sở.

Trong internet truyền thống, giá trị được quy đổi thành giá cổ phiếu và giá trị thị trường thông qua các chỉ số như P/E. Trong mạng lưới Blockchain, token gốc là biểu hiện của giá trị đa chiều, không chỉ có thể nhận được lợi nhuận từ việc staking, mà còn có thể đóng vai trò là phương tiện trao đổi giá trị, phương tiện lưu trữ giá trị và hàng hóa tiêu dùng cho các hoạt động trong mạng.

Tầm quan trọng của kinh tế token nằm ở chỗ nó có thể gán giá trị cho bất kỳ chức năng hay ý tưởng nào trong mạng lưới. Token có thể giúp tái cấu trúc giá trị các khâu trong chuỗi công nghiệp AI, khuyến khích nhiều người hơn tham gia vào các lĩnh vực AI chuyên biệt. Đồng thời, hiệu ứng hợp tác của token sẽ nâng cao giá trị của cơ sở hạ tầng, hình thành cấu trúc "giao thức béo ứng dụng gầy".

Công nghệ Blockchain với đặc tính không thể bị thay đổi và không cần tin tưởng cũng có thể mang lại giá trị thực cho ngành AI:

  • Thực hiện đào tạo và suy diễn mô hình dưới sự bảo vệ quyền riêng tư dữ liệu
  • Phân phối thông qua mạng lưới toàn cầu và tận dụng sức mạnh tính toán GPU nhàn rỗi
  • Cung cấp cơ chế phát hiện và trao đổi giá trị đáng tin cậy cho các khâu trong chuỗi công nghiệp AI

Tóm lại, kinh tế token có thể thúc đẩy việc tái cấu trúc và khám phá giá trị trong ngành AI, sổ cái phi tập trung có thể giải quyết vấn đề niềm tin, làm cho giá trị lưu thông lại trên toàn cầu. Sự kết hợp này sẽ mang lại động lực phát triển và cơ hội mới cho ngành AI.

![Người mới Khoa học phổ thông丨AI x Crypto:Từ số không đến đỉnh cao]###https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp###

Tổng quan về dự án chuỗi công nghiệp AI trong ngành tiền điện tử

Cung cấp GPU

Hiện tại, các dự án GPU điện toán đám mây blockchain chính bao gồm Render, Golem, v.v. Render là một dự án tương đối trưởng thành, chủ yếu hướng đến các nhiệm vụ truyền thống như render video, không hoàn toàn thuộc về lĩnh vực AI theo nghĩa chặt chẽ. Tuy nhiên, thị trường điện toán đám mây GPU không chỉ có thể phục vụ cho việc huấn luyện và suy diễn mô hình AI, mà còn có thể áp dụng cho render truyền thống, giảm thiểu rủi ro phụ thuộc vào một thị trường duy nhất.

Theo dự đoán của ngành, nhu cầu về sức mạnh tính toán GPU vào năm 2024 khoảng 75 tỷ USD, đến năm 2032 sẽ đạt 773 tỷ USD, với tỷ lệ tăng trưởng kép hàng năm 33,86%. Khi việc phát triển GPU diễn ra nhanh chóng, nhu cầu chia sẻ sức mạnh tính toán GPU sẽ tăng mạnh, vì sẽ có nhiều tài nguyên GPU không còn sử dụng đang tồn đọng.

![Người mới phổ cập丨AI x Crypto: Từ số 0 đến đỉnh cao]###https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(

) Băng thông phần cứng

Băng thông thường là yếu tố chính ảnh hưởng đến hiệu suất điện toán đám mây, đặc biệt là đối với mạng chia sẻ GPU phi tập trung. Một số dự án như Meson Network cố gắng giải quyết vấn đề này thông qua việc chia sẻ băng thông, nhưng hiệu quả thực tế còn hạn chế, vì độ trễ do vị trí địa lý vẫn khó tránh khỏi.

( Dữ liệu

Các nhà cung cấp dữ liệu AI bao gồm EpiK Protocol, Synesis One, Masa, v.v. So với các doanh nghiệp dữ liệu truyền thống Web2, các dự án blockchain có lợi thế trong việc thu thập dữ liệu, có thể cung cấp động lực cho việc đóng góp dữ liệu cá nhân. Kết hợp với các công nghệ tính toán riêng tư như chứng minh không biết, có khả năng đạt được việc chia sẻ dữ liệu rộng rãi hơn.

) ZKML

Để thực hiện việc đào tạo và suy luận mô hình dưới sự bảo vệ quyền riêng tư dữ liệu, một số dự án đã áp dụng giải pháp chứng minh không kiến thức. Các dự án điển hình bao gồm Axiom, Risc Zero, có thể cung cấp chứng minh ZK cho tính toán và dữ liệu ngoài chuỗi. Các dự án ZK tổng quát này có ứng dụng rộng rãi hơn và thu hút hơn đối với các nhà đầu tư.

GPT-0.21%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 5
  • Chia sẻ
Bình luận
0/400
MetaNeighborvip
· 16giờ trước
Giao dịch tiền điện tử必备 AI,干啥都靠AI
Xem bản gốcTrả lời0
ILCollectorvip
· 16giờ trước
Ai nói thị trường tăng nhất định không chơi đùa với mọi người? Chơi đùa với mọi người cũng là một cách để tăng lên.
Xem bản gốcTrả lời0
ColdWalletGuardianvip
· 16giờ trước
GPU đại ca lại chuẩn bị To da moon rồi~
Xem bản gốcTrả lời0
HodlOrRegretvip
· 16giờ trước
Được rồi được rồi lại nói về AI. Bò thì bò, chỉ là máy khai thác không bán được.
Xem bản gốcTrả lời0
MEVHunterZhangvip
· 16giờ trước
Lại một lần nữa bị BTC chơi đùa với đồ ngốc
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)