Sự tiến hóa của phương thức đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác
Trong toàn bộ chuỗi giá trị của AI, việc huấn luyện mô hình là giai đoạn tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, nó quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn nhẹ nhàng, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "ngành công nghiệp nặng" thực sự trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện Phi tập trung, mà bài viết này sẽ tập trung thảo luận.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu năng cao tại chỗ, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối bởi một hệ thống điều khiển thống nhất. Kiến trúc phối hợp sâu sắc này giúp hiệu quả chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi đạt mức tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với những lợi thế như hiệu suất cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng gặp phải các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính hiện nay để đào tạo các mô hình lớn, cốt lõi của nó là chia nhỏ nhiệm vụ đào tạo mô hình và phân phối chúng cho nhiều máy tính thực hiện phối hợp, để vượt qua các nút thắt về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, do nút chính điều phối đồng nhất các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: Mỗi nút đào tạo các tham số dữ liệu khác nhau chia sẻ, cần khớp trọng số mô hình
Phân chia mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ;
Đường ống song song: Thực hiện tuần tự theo từng giai đoạn, nâng cao thông lượng;
Song song tensor: Chia nhỏ tính toán ma trận một cách tinh vi, nâng cao độ phân giải song song.
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu hết các mô hình lớn chính đều được hoàn thành đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau hợp tác hoàn thành nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua giao thức điều động nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa đảm bảo tính trung thực của sự đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Thiết bị dị hình và khó khăn trong việc phân chia: Khó khăn trong việc phối hợp thiết bị dị hình, hiệu quả phân chia nhiệm vụ thấp;
Nút thắt hiệu suất truyền thông: Giao tiếp mạng không ổn định, nút thắt đồng bộ gradient rõ ràng;
Thiếu thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không;
Thiếu sự phối hợp thống nhất: Không có bộ điều độ trung ương, việc phân phối nhiệm vụ và cơ chế hoàn tác bất thường phức tạp.
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng khả năng "phối hợp hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ nguyên dữ liệu tại địa phương và tập trung hợp nhất các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy, không có đặc tính hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc niềm tin và cơ chế giao tiếp đều tương đối nhẹ nhàng, thích hợp hơn cho việc triển khai chuyển tiếp trong ngành công nghiệp.
Bảng so sánh toàn cảnh các mô hình đào tạo AI
Xét từ góc độ phương thức đào tạo, Phi tập trung đào tạo không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực kỳ cao hoặc độ khó hợp tác lớn, tự nhiên không phù hợp để hoàn thành một cách hiệu quả giữa các nút khác nhau, không có sự tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ đồ họa cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ một cách hiệu quả trong mạng mở; nhiệm vụ có yêu cầu mạnh về quyền riêng tư dữ liệu và chủ quyền bị hạn chế bởi sự tuân thủ pháp luật và các ràng buộc đạo đức, không thể chia sẻ mở; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế hiện tại của đào tạo Phi tập trung.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một vấn đề giả. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo hậu cần hành vi như RLHF, DPO(, nhiệm vụ đào tạo và gán nhãn dữ liệu theo đám đông, đào tạo các mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết hợp thấp và chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu hóa phân tán và các phương pháp khác.
) Phi tập trung đào tạo các dự án kinh điển解析
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho các hướng nghiên cứu lý thuyết tiên tiến hiện tại; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đằng sau năm dự án này, và tiếp tục khám phá sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Người tiên phong mạng lưới hợp tác học tăng cường có thể xác minh được quỹ đạo huấn luyện
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả chứng, mở và đầy đủ cơ chế khuyến khích.
Một, Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
![AI đào tạo mô hình tiến hóa: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác phi tập trung]###https://img-cdn.gateio.im/webp-social/moments-3a83d085e7a7abfe72221958419cd6d8.webp(
Hai, Giải thích chi tiết về cơ chế khóa đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khung mô hình hóa và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia bất đồng bộ. Nó sử dụng học tăng cường làm đối tượng thích ứng ưu tiên, giải cấu trúc quá trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ độc lập tại địa phương và phối hợp qua giao diện tiêu chuẩn với cơ chế xác minh và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi về khả năng kiểm chứng được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng nề như ZKML, TOPLOC không phụ thuộc vào tính toán lại toàn bộ mô hình, mà thay vào đó, phân tích các quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược" để hoàn thành xác minh cấu trúc nhẹ nhàng. Đây là lần đầu tiên hành vi trong quá trình huấn luyện được chuyển đổi thành đối tượng có thể kiểm chứng, là sự đổi mới then chốt để thực hiện phân phối phần thưởng huấn luyện mà không cần tin cậy, cung cấp con đường khả thi để xây dựng mạng lưới hợp tác huấn luyện phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức phát tán và tổng hợp trọng số được thiết kế bởi Prime Intellect, tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế phát tán gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo lặp lại liên tục.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị dị thể và độ không ổn định của nút. Kiến trúc của nó dựa trên dữ liệu song song, bằng cách xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, nó đã tránh được chi phí giao tiếp cao do đồng bộ toàn cầu, chỉ phụ thuộc vào các nút hàng xóm cục bộ có thể hoàn thành việc đào tạo mô hình hợp tác. Kết hợp cập nhật bất đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và các thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện truyền thông đồng bộ
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết những điểm nghẽn thích ứng của thư viện giao tiếp truyền thống trong các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ topo thưa thớt, nén gradient, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu đựng băng thông của mạng đào tạo và tính tương thích của thiết bị, mở ra "km cuối cùng" cho cơ sở giao tiếp xây dựng mạng đào tạo hợp tác thực sự mở, không cần tin cậy.
Ba, Mạng lưới khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần sự cho phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường huấn luyện, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
Nút đào tạo: Thực hiện đào tạo cục bộ, gửi cập nhật trọng số và theo dõi quan sát
Node xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia tính toán phần thưởng cũng như tổng hợp chiến lược.
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số )SHARDCAST( và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".
![Sự tiến hóa của mô hình huấn luyện AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác])https://img-cdn.gateio.im/webp-social/moments-45f26de57a53ac937af683e629dbb804.webp(
Bốn, INTELLECT-2: Phát hành mô hình đào tạo phi tập trung đầu tiên có thể xác minh
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo bởi các nút phân cấp không cần tin tưởng và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác đào tạo của hơn 100 nút GPU đồng nhất trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác bất đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là lần đầu tiên hệ thống hóa khái niệm "đào tạo chính là đồng thuận" mà Prime Intellect đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu Phi tập trung.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
12 thích
Phần thưởng
12
4
Chia sẻ
Bình luận
0/400
MemeTokenGenius
· 18giờ trước
Cái đợt huấn luyện AI Phi tập trung này thật sự làm rất đẹp.
Xem bản gốcTrả lời0
BlockchainArchaeologist
· 18giờ trước
Chỉ những người làm cơ sở hạ tầng mới hiểu được khó khăn trong việc huấn luyện mô hình.
Xem bản gốcTrả lời0
GhostAddressHunter
· 18giờ trước
Lại bắt đầu vẽ BTC rồi, có BTC để ăn không?
Xem bản gốcTrả lời0
NftMetaversePainter
· 18giờ trước
thực ra... sự chuyển mình thực sự không phải là về việc đào tạo chút nào. mà là về chủ quyền thuật toán trong lĩnh vực tính toán hậu vật lý *nhấp trà*
Mô hình đào tạo AI mới: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến sự hợp tác phi tập trung.
Sự tiến hóa của phương thức đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác
Trong toàn bộ chuỗi giá trị của AI, việc huấn luyện mô hình là giai đoạn tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, nó quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn nhẹ nhàng, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "ngành công nghiệp nặng" thực sự trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện Phi tập trung, mà bài viết này sẽ tập trung thảo luận.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu năng cao tại chỗ, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối bởi một hệ thống điều khiển thống nhất. Kiến trúc phối hợp sâu sắc này giúp hiệu quả chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi đạt mức tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với những lợi thế như hiệu suất cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng gặp phải các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính hiện nay để đào tạo các mô hình lớn, cốt lõi của nó là chia nhỏ nhiệm vụ đào tạo mô hình và phân phối chúng cho nhiều máy tính thực hiện phối hợp, để vượt qua các nút thắt về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, do nút chính điều phối đồng nhất các nhiệm vụ con. Các phương pháp chính bao gồm:
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu hết các mô hình lớn chính đều được hoàn thành đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau hợp tác hoàn thành nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua giao thức điều động nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa đảm bảo tính trung thực của sự đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng khả năng "phối hợp hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ nguyên dữ liệu tại địa phương và tập trung hợp nhất các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy, không có đặc tính hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc niềm tin và cơ chế giao tiếp đều tương đối nhẹ nhàng, thích hợp hơn cho việc triển khai chuyển tiếp trong ngành công nghiệp.
Bảng so sánh toàn cảnh các mô hình đào tạo AI
Xét từ góc độ phương thức đào tạo, Phi tập trung đào tạo không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực kỳ cao hoặc độ khó hợp tác lớn, tự nhiên không phù hợp để hoàn thành một cách hiệu quả giữa các nút khác nhau, không có sự tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ đồ họa cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ một cách hiệu quả trong mạng mở; nhiệm vụ có yêu cầu mạnh về quyền riêng tư dữ liệu và chủ quyền bị hạn chế bởi sự tuân thủ pháp luật và các ràng buộc đạo đức, không thể chia sẻ mở; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế hiện tại của đào tạo Phi tập trung.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một vấn đề giả. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo hậu cần hành vi như RLHF, DPO(, nhiệm vụ đào tạo và gán nhãn dữ liệu theo đám đông, đào tạo các mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết hợp thấp và chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu hóa phân tán và các phương pháp khác.
) Phi tập trung đào tạo các dự án kinh điển解析
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho các hướng nghiên cứu lý thuyết tiên tiến hiện tại; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đằng sau năm dự án này, và tiếp tục khám phá sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Người tiên phong mạng lưới hợp tác học tăng cường có thể xác minh được quỹ đạo huấn luyện
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả chứng, mở và đầy đủ cơ chế khuyến khích.
Một, Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
![AI đào tạo mô hình tiến hóa: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác phi tập trung]###https://img-cdn.gateio.im/webp-social/moments-3a83d085e7a7abfe72221958419cd6d8.webp(
Hai, Giải thích chi tiết về cơ chế khóa đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khung mô hình hóa và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia bất đồng bộ. Nó sử dụng học tăng cường làm đối tượng thích ứng ưu tiên, giải cấu trúc quá trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ độc lập tại địa phương và phối hợp qua giao diện tiêu chuẩn với cơ chế xác minh và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi về khả năng kiểm chứng được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng nề như ZKML, TOPLOC không phụ thuộc vào tính toán lại toàn bộ mô hình, mà thay vào đó, phân tích các quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược" để hoàn thành xác minh cấu trúc nhẹ nhàng. Đây là lần đầu tiên hành vi trong quá trình huấn luyện được chuyển đổi thành đối tượng có thể kiểm chứng, là sự đổi mới then chốt để thực hiện phân phối phần thưởng huấn luyện mà không cần tin cậy, cung cấp con đường khả thi để xây dựng mạng lưới hợp tác huấn luyện phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức phát tán và tổng hợp trọng số được thiết kế bởi Prime Intellect, tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế phát tán gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo lặp lại liên tục.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị dị thể và độ không ổn định của nút. Kiến trúc của nó dựa trên dữ liệu song song, bằng cách xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, nó đã tránh được chi phí giao tiếp cao do đồng bộ toàn cầu, chỉ phụ thuộc vào các nút hàng xóm cục bộ có thể hoàn thành việc đào tạo mô hình hợp tác. Kết hợp cập nhật bất đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và các thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện truyền thông đồng bộ
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết những điểm nghẽn thích ứng của thư viện giao tiếp truyền thống trong các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ topo thưa thớt, nén gradient, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu đựng băng thông của mạng đào tạo và tính tương thích của thiết bị, mở ra "km cuối cùng" cho cơ sở giao tiếp xây dựng mạng đào tạo hợp tác thực sự mở, không cần tin cậy.
Ba, Mạng lưới khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần sự cho phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số )SHARDCAST( và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".
![Sự tiến hóa của mô hình huấn luyện AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác])https://img-cdn.gateio.im/webp-social/moments-45f26de57a53ac937af683e629dbb804.webp(
Bốn, INTELLECT-2: Phát hành mô hình đào tạo phi tập trung đầu tiên có thể xác minh
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo bởi các nút phân cấp không cần tin tưởng và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác đào tạo của hơn 100 nút GPU đồng nhất trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác bất đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là lần đầu tiên hệ thống hóa khái niệm "đào tạo chính là đồng thuận" mà Prime Intellect đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu Phi tập trung.