Huang Renxun đã chỉ định? SN3 tăng 5 lần trong một tháng, cuối cùng đã làm gì?
- Quan điểm cốt lõi: Mạng con Bittensor SN3 (Templar) đã thành công trong việc huấn luyện mô hình lớn Covenant-72B với 72 tỷ tham số thông qua mạng lưới tính toán phân tán không cần cấp phép, hiệu suất của nó tương đương với LLaMA-2-70B của Meta năm 2023, điều này được coi là một bước đột phá công nghệ quan trọng trong lĩnh vực huấn luyện AI phi tập trung, thu hút sự chú ý mạnh mẽ của thị trường đối với các token liên quan.
- Yếu tố then chốt:
- Đột phá công nghệ: Covenant-72B đạt điểm 67.1 trong bài kiểm tra chuẩn MMLU, thể hiện nổi bật trong lĩnh vực huấn luyện phi tập trung, chứng minh tính khả thi của việc huấn luyện mô hình lớn phân tán.
- Tham gia không cần cấp phép: Hơn 70 nút độc lập đã tham gia huấn luyện mà không cần xét duyệt danh sách trắng, đạt được sự tham gia phi tập trung thực sự.
- Cơ chế cốt lõi: Thông qua công nghệ SparseLoCo đạt được nén gradient hiệu quả (tỷ lệ nén hơn 146 lần), và cơ chế Gauntlet xác minh chất lượng đóng góp của nút, giải quyết vấn đề hiệu quả và khuyến khích trong huấn luyện phân tán.
- Phản ứng thị trường: Token SN3 đã tăng hơn 440% trong tháng qua, giá trị câu chuyện của nó lan truyền đến token mạng chính Bittensor TAO, thúc đẩy giá của nó tăng nhanh.
- Ý nghĩa ngành: Kết quả này thách thức cấu trúc độc quyền tài nguyên trong huấn luyện AI, cho thấy tiềm năng chính trị kinh tế của phát triển AI phi tập trung, nhưng hiệu suất mô hình vẫn còn khoảng cách thế hệ so với các mô hình tiên tiến hiện tại.
- Vấn đề tiềm ẩn: Bao gồm tính kịp thời của so sánh chuẩn mô hình, nút cổ chai trong việc thu thập dữ liệu chất lượng cao, rủi ro an ninh và tuân thủ do tham gia không cấp phép, và rủi ro liên quan mạnh mẽ giữa giá trị token và tính bền vững của đầu ra mô hình.
Tác giả gốc: KarenZ, Foresight News
Ngày 20 tháng 3 năm 2026, một cuộc đối thoại bất thường đã diễn ra trong podcast đầu tư mạo hiểm All-In.
Ông trùm đầu tư mạo hiểm Chamath Palihapitiya đã chuyển hướng câu chuyện cho CEO NVIDIA, Jensen Huang, nói rằng có một dự án trên Bittensor "đã hoàn thành một thành tựu kỹ thuật khá điên rồ": huấn luyện một mô hình ngôn ngữ lớn trên internet bằng sức mạnh tính toán phân tán, quá trình hoàn toàn phi tập trung, không có sự tham gia của bất kỳ trung tâm dữ liệu tập trung nào.
Jensen Huang không né tránh. Ông so sánh điều này với "phiên bản hiện đại của Folding@home", dự án phân tán những năm 2000 cho phép người dùng thông thường đóng góp sức mạnh tính toán nhàn rỗi để cùng chống lại vấn đề gấp protein.
4 ngày trước đó, vào ngày 16 tháng 3, đồng sáng lập Anthropic Jack Clark, trong một báo cáo tiến độ nghiên cứu AI, cũng đã dành nhiều không gian để giới thiệu và trích dẫn đột phá này: mạng con Templar (SN3) trong hệ sinh thái Bittensor đã hoàn thành việc huấn luyện phân tán cho mô hình lớn 72 tỷ tham số (Covenant 72B), hiệu suất mô hình tương đương với LLaMA-2 mà Meta phát hành năm 2023.
Jack Clark đặt tên cho chương này là "Thách thức kinh tế chính trị AI thông qua huấn luyện phân tán" và nhấn mạnh trong phân tích rằng đây là một công nghệ đáng theo dõi - ông có thể tưởng tượng một tương lai: AI trên thiết bị sử dụng rộng rãi các mô hình được tạo ra từ huấn luyện phi tập trung, trong khi AI đám mây tiếp tục chạy các mô hình độc quyền lớn.
Phản ứng của thị trường hơi chậm nhưng rất dữ dội: SN3 đã tăng hơn 440% trong tháng qua, tăng hơn 340% trong hai tuần qua, vốn hóa thị trường đạt 130 triệu USD. Sự bùng nổ câu chuyện về mạng con sẽ trực tiếp chuyển thành áp lực mua TAO. Do đó, TAO tăng nhanh, từng đạt 377 USD, tăng gấp đôi trong tháng qua, FDV đạt khoảng 7,5 tỷ USD.
Câu hỏi đặt ra: SN3 thực sự đã làm gì? Tại sao nó được đưa vào ánh đèn sân khấu? Câu chuyện giá trị về huấn luyện phân tán và AI phi tập trung sẽ phát triển như thế nào?
Mô hình 72B đó
Để trả lời câu hỏi này, trước tiên cần nhìn rõ bảng thành tích mà SN3 đã giao.
Ngày 10 tháng 3 năm 2026, nhóm Covenant AI đã xuất bản một báo cáo kỹ thuật trên arXiv, chính thức thông báo hoàn thành việc huấn luyện Covenant-72B. Đây là một mô hình ngôn ngữ lớn với 72 tỷ tham số, hơn 70 nút peers độc lập (khoảng 20 nút đồng bộ mỗi vòng, mỗi nút được trang bị 8 B200), đã hoàn thành việc tiền huấn luyện mô hình 72 tỷ tham số trên kho ngữ liệu khoảng 1,1 nghìn tỷ tokens.

Templar đã đưa ra một số dữ liệu về điểm chuẩn, tất nhiên, LLaMA-2-70B được so sánh là mô hình lớn do Meta phát hành năm 2023. Như đồng sáng lập Anthropic Jack Clark đã nói, Covenant-72B vào năm 2026 có thể đã hơi lỗi thời. Điểm 67.1 của Covenant-72B trên MMLU, về cơ bản tương đương với LLaMA-2-70B (65.6 điểm) do Meta phát hành năm 2023.
Trong khi các mô hình tiên phong năm 2026 - cho dù là dòng GPT, Claude hay Gemini - đã hoàn thành việc huấn luyện với số lượng tham số vượt xa 100 tỷ trên hàng chục nghìn GPU, sự khác biệt về khả năng suy luận, mã hóa và toán học là vấn đề về cấp số nhân chứ không phải phần trăm. Khoảng cách thực tế này không nên bị nhấn chìm bởi cảm xúc thị trường.
Nhưng khi quy đổi trong điều kiện "được huấn luyện bằng sức mạnh tính toán phân tán trên internet mở", ý nghĩa hoàn toàn khác.
Hãy so sánh: INTELLECT-1 (sản phẩm của nhóm Prime Intellect, 10 tỷ tham số) cùng là huấn luyện phân tán đạt điểm MMLU 32.7; một dự án huấn luyện phân tán khác được thực hiện trong số những người tham gia danh sách trắng Psyche Consilience (40 tỷ tham số) đạt điểm 24.2. Covenant-72B với quy mô 72B, điểm MMLU 67.1, là một con số nổi bật trong lĩnh vực huấn luyện phân tán.

Quan trọng hơn, lần huấn luyện này là "không cần sự cho phép". Bất kỳ ai cũng có thể kết nối để trở thành nút tham gia, không cần xét duyệt trước, không cần danh sách trắng. Hơn 70 nút độc lập đã tham gia cập nhật mô hình, kết nối và đóng góp sức mạnh tính toán từ khắp nơi trên thế giới.
Jensen Huang đã nói gì, và không nói gì
Khôi phục lại chi tiết cuộc đối thoại podcast đó sẽ giúp điều chỉnh cách diễn giải của công chúng về sự "ủng hộ" này.
Chamath Palihapitiya trong cuộc đối thoại đã trình bày thành tựu kỹ thuật của Bittensor cho Jensen Huang, và mô tả nó như việc huấn luyện một mô hình Llama bằng sức mạnh tính toán phân tán, quá trình "hoàn toàn phân tán, đồng thời duy trì trạng thái". Phản hồi của Jensen Huang là so sánh điều này với "phiên bản hiện đại của Folding@home", và ông đã mở rộng thảo luận về sự cần thiết của việc song song tồn tại giữa mô hình mã nguồn mở và độc quyền.
Đáng chú ý, Jensen Huang không trực tiếp đề cập đến token của Bittensor hay bất kỳ ý nghĩa đầu tư nào, cũng không thảo luận thêm về huấn luyện AI phi tập trung.
Hiểu về mạng con Bittensor và SN3
Để hiểu đột phá của SN3, trước tiên cần làm rõ logic hoạt động của Bittensor và các mạng con của nó. Nói một cách đơn giản, Bittensor có thể được coi là một blockchain AI công khai và nền tảng, và mỗi mạng con tương đương với một "dây chuyền sản xuất AI" độc lập, mỗi mạng xác định rõ nhiệm vụ cốt lõi, thiết kế cơ chế khuyến khích, phối hợp để tạo thành hệ sinh thái AI phi tập trung.
Quy trình hoạt động của nó rõ ràng và phi tập trung: chủ sở hữu mạng con xác định mục tiêu mạng con và viết mô hình khuyến khích; thợ đào trong mạng con cung cấp sức mạnh tính toán, hoàn thành các nhiệm vụ liên quan đến AI (như suy luận, huấn luyện, lưu trữ, v.v.); người xác thực chấm điểm đóng góp của thợ đào và tải điểm số lên lớp đồng thuận của Bittensor; cuối cùng, thuật toán đồng thuận Yuma của Bittensor sẽ phân phối lợi nhuận tương ứng cho những người tham gia mạng con dựa trên phần thưởng tích lũy của từng mạng con.
Hiện tại có 128 mạng con trên Bittensor, bao phủ các nhiệm vụ AI khác nhau như suy luận, dịch vụ đám mây AI không máy chủ, hình ảnh, gắn nhãn dữ liệu, học tăng cường, lưu trữ, tính toán, v.v.
Và SN3 là một trong những mạng con đó. Nó không làm vỏ ứng dụng, không thuê API mô hình lớn có sẵn, mà nhắm trực tiếp vào một trong những khâu cốt lõi đắt đỏ và khép kín nhất trong toàn bộ chuỗi công nghiệp AI: chính việc tiền huấn luyện mô hình lớn.
SN3 hy vọng sử dụng mạng lưới Bittensor để phối hợp việc huấn luyện phân tán các tài nguyên tính toán không đồng nhất, thông qua việc huấn luyện mô hình lớn phân tán có khuyến khích, chứng minh rằng không cần cụm siêu máy tính tập trung đắt tiền, vẫn có thể huấn luyện ra các mô hình cơ sở mạnh mẽ. Sức hút cốt lõi nằm ở "bình đẳng" - phá vỡ sự độc quyền tài nguyên của huấn luyện tập trung, cho phép các cá nhân thông thường hoặc tổ chức vừa và nhỏ tham gia huấn luyện mô hình lớn, đồng thời giảm chi phí huấn luyện nhờ sức mạnh tính toán phân tán.
Lực lượng cốt lõi thúc đẩy sự phát triển của SN3 là Templar, nhóm nghiên cứu đằng sau là Covenant Labs. Nhóm này đồng thời vận hành hai mạng con khác: Basilica (SN39, tập trung vào dịch vụ tính toán) và Grail (SN81, tập trung vào huấn luyện hậu RL và đánh giá mô hình). Ba mạng con tạo thành sự tích hợp dọc, bao phủ đầy đủ toàn bộ quy trình từ tiền huấn luyện đến tối ưu hóa căn chỉnh cho mô hình lớn, xây dựng hệ sinh thái hoàn chỉnh cho việc huấn luyện mô hình lớn phi tập trung.
Cụ thể, thợ đào đóng góp tài nguyên tính toán, tải cập nhật gradient (hướng điều chỉnh và mức độ điều chỉnh tham số mô hình) lên mạng lưới; người xác thực đánh giá chất lượng đóng góp của mỗi thợ đào, cho điểm trên chuỗi theo mức độ cải thiện sai số. Kết quả quyết định trọng số phần thưởng, được phân phối tự động, không cần tin tưởng vào bất kỳ bên thứ ba nào.
Điểm then chốt trong thiết kế cơ chế khuyến khích là, phần thưởng được gắn trực tiếp với "đóng góp của bạn làm mô hình tốt hơn bao nhiêu", chứ không phải chỉ đơn thuần là sự có mặt của sức mạnh tính toán. Điều này giải quyết tận gốc vấn đề khó nhất trong bối cảnh phi tập trung: làm thế nào để ngăn thợ đào lười biếng.
Vậy Covenant-72B giải quyết vấn đề hiệu quả truyền thông và tương thích khuyến khích như thế nào?
Để vài chục nút không tin tưởng lẫn nhau, phần cứng khác nhau, chất lượng mạng không đồng đều cùng phối hợp huấn luyện một mô hình, có hai thách thức: một là hiệu quả truyền thông, các phương án huấn luyện phân tán tiêu chuẩn yêu cầu kết nối băng thông cao, độ trễ thấp giữa các nút; hai là tương thích khuyến khích, làm thế nào để ngăn các nút độc hại gửi gradient sai? Làm thế nào để đảm bảo mỗi người tham gia đều đang huấn luyện chăm chỉ, chứ không phải sao chép kết quả của người khác?
SN3 giải quyết hai vấn đề này bằng hai thành phần cốt lõi: SparseLoCo và Gauntlet.
SparseLoCo giải quyết vấn đề hiệu quả truyền thông. Huấn luyện phân tán truyền thống mỗi bước đều phải đồng bộ gradient đầy đủ, lượng dữ liệu khổng lồ. Phương án mà SparseLoCo áp dụng là: mỗi nút chạy tối ưu hóa nội bộ 30 bước (AdamW) cục bộ, sau đó nén "pseudo-gradient" được tạo ra trước khi tải lên cho các nút khác. Phương pháp nén bao gồm làm thưa Top-k (chỉ giữ lại các thành phần gradient quan trọng nhất), phản hồi sai số (lưu phần bị loại bỏ và tích lũy cho vòng tiếp theo), và lượng tử hóa 2 bit. Tỷ lệ nén cuối cùng vượt quá 146 lần.
Nói cách khác, thứ ban đầu cần truyền 100MB, giờ đây chưa đến 1MB là đủ.
Điều này cho phép hệ thống duy trì tỷ lệ sử dụng tính toán khoảng 94.5% trong giới hạn băng thông của internet thông thường (tải lên 110Mbps, tải xuống 500Mbps) - 20 nút, mỗi nút 8 B200


