BTC
ETH
HTX
SOL
BNB
查看行情
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt

如何理解 AI 算力代幣?從 GPU 市場到執行層的比較

XT研究院
特邀专栏作者
@XTExchangecn
2026-01-30 06:03
本文約5673字,閱讀全文需要約9分鐘
什麼是 AI 算力市場?從集中式雲端到去中心化 GPU,本文帶你理解 AI 算力的供需機制與關鍵參與者。
AI總結
展開
  • 核心觀點:AI算力市場透過去中心化方式整合全球閒置GPU資源,旨在解決當前AI發展中因算力資源集中化導致的高成本、取得難等結構性瓶頸,為開發者提供傳統雲端服務之外的算力取得路徑。
  • 關鍵要素:
    1. 當前高端GPU算力資源高度集中在少數中心化雲端服務商手中,導致定價權壟斷、地域分配不均,對中小型AI團隊構成競爭壁壘。
    2. AI算力市場透過連接分散的算力供給方(如資料中心、礦工)與需求方(如AI新創公司),以市場化機制進行資源調度與結算。
    3. io.net(IO)代表算力聚合模式,強調整合資源並提供接近雲端服務的使用者體驗,核心挑戰在於保持規模化後的效能與穩定性。
    4. iExec(RLC)側重於安全與可驗證執行,利用可信執行環境(TEE)滿足對資料隱私和完整性要求高的計算任務。
    5. Phoenix Global(PHB)採用生態整合路徑,將算力作為其多層AI基礎設施平台的一部分,旨在支援完整的去中心化AI工作流程。
    6. 評估此類專案的關鍵不在於名義算力規模,而在於實際算力利用率、服務穩定性以及代幣在真實使用場景中的必要性。

對許多 AI 開發者來說,真正的難題往往不在程式碼裡,而是在帳單上。

模型訓練需要 GPU,推理部署同樣離不開 GPU。但當算力長期集中在少數平台手中,開發者所面對的,往往是高昂的成本、不確定的排程,以及隨時可能被調整的資源優先級。久而久之,算力本身,逐漸演變成一道無形卻真實存在的門檻。

在更廣泛的 AI 敘事框架中(此前在 XT AI 板塊的整體解析中已有討論),基礎設施層正在悄然重塑價值分配方式。AI 算力市場的出現,正是對這一現實的回應。它試圖透過去中心化的方式,將分散在全球各地的 GPU 資源重新連接起來,讓算力不再只屬於少數中心化參與者。無論是 io.net(IO)強調的算力聚合,還是 Phoenix Global(PHB)所建構的多層 AI 基礎設施生態,都在回答同一個問題:算力,是否可以像市場一樣被重新組織,而不再被壟斷?

xt-ai-zone-decentralized-gpu-projects-explained-cover-cn

TL;DR 快速總結

  • GPU 算力已成為制約 AI 產業發展的結構性瓶頸
  • AI 算力市場透過開放式機制,嘗試推動 GPU 供給的去中心化
  • IO、RLC 與 PHB 代表了不同類型的算力市場架構路徑
  • 相比「算力數量」,算力利用率、穩定性與信任機制更為關鍵
  • 在參與 AI 基礎設施相關資產前,結構性理解應優先於敘事判斷

為什麼算力正在成為 AI 市場的新瓶頸

在 AI 發展的早期階段,技術進步主要由更強的模型能力和更豐富的數據驅動。但如今,真正的限制因素已經發生轉移。無論是大模型訓練,還是規模化推理部署,都高度依賴持續、穩定的 GPU 算力,而算力需求的增長速度,正在明顯快於供給擴張。

目前,高端 GPU 資源主要集中在少數中心化雲服務商手中,尤其在企業級市場更為明顯。這種集中化格局,正在產生一系列連鎖影響:

  • 定價權長期掌握在平台方手中
  • 算力資源優先分配給大型、成熟客戶
  • 高效能 GPU 的地域可得性存在明顯差異

在這樣的環境下,中小型 AI 團隊、獨立開發者以及早期項目,往往需要承擔更高的成本,或面臨算力取得受限的問題。算力本身,正在演變為一種隱性的競爭壁壘。能否穩定、低成本地獲得 GPU 資源,越來越直接地決定了 AI 產品是否具備落地與規模化擴張的可能性。

正是在這種結構性失衡背景下,AI 算力市場開始出現。它們嘗試透過提供不同於傳統雲服務的算力取得路徑,緩解對中心化平台的單一依賴,為算力供給打開更多可能性。

什麼是 AI 算力市場

AI 算力市場,是一種透過市場化協調機制,將 GPU 算力供給與 AI 工作負載進行連接的平台,而非依賴單一中心化服務商進行算力配置。

從整體結構來看,這類平台主要匯聚兩類參與者:

  • 算力提供方:包括資料中心、企業、礦工,或擁有閒置算力的個人
  • 算力需求方:包括 AI 新創團隊、科研機構、推理服務商以及模型開發者

在算力市場中,平台層負責完成算力資源的發現、定價、調度與結算。與傳統雲服務不同,基礎設施不再由單一主體壟斷,硬體所有權、任務執行與定價權被拆分並重新分配。

在這一過程中,代幣可能承擔多種功能角色,例如:

  • 用於算力使用的結算
  • 作為存取權限的控制工具
  • 用於協調供需雙方激勵機制

但需要注意的是,代幣在不同平台中的重要性,取決於具體的架構設計,並不存在統一標準。

從交易平台與市場結構的角度來看,AI 算力市場屬於一種獨立的基礎設施類別。它們既不是 AI 應用,也不是面向消費者的產品,其核心價值在於是否能夠在規模化場景下,持續、穩定地協調算力供需關係。

去中心化 GPU 市場如何運作

儘管具體實現路徑各不相同,但大多數去中心化算力市場,通常都圍繞著一套相對一致的結構層級展開。理解項目在這一結構中的發力重點,是評估 AI 算力代幣時不可忽視的關鍵因素。

供給層(Supply Layer)

在供給層,平台負責接入來自分散式算力提供方的 GPU 資源。以 Akash Network 為例,其透過聚合全球獨立營運者的閒置算力,將原本分散、未被充分利用的硬體資源,轉化為開發者可直接調用的開放算力池。

市場層(Marketplace Layer)

市場層的核心職能,是將具體的計算任務與可用 GPU 進行匹配。Render Network 展示了這一機制的典型形態,其透過網路協調的方式,根據節點的可用性與效能指標分配 GPU 任務,取代了傳統中心化調度模式。

執行層(Execution Layer)

在執行層,計算任務運行於相互隔離的環境之中。io.net 強調透過容器化執行與統一調度系統,在異構 GPU 基礎設施上協調 AI 工作負載,同時確保不同任務之間的隔離性與穩定性。

結算層(Settlement Layer)

結算層用於衡量算力使用情況並完成支付協調。Golem 提供了基於實際使用量的結算示例,平台根據任務完成情況向算力提供方支付報酬,而非依據事先聲明的算力規模,從而使激勵機制更貼近真實交付成果。

io.net(IO):以聚合為核心的 GPU 算力市場

io.netIO)代表了一種以算力聚合優先的 AI 算力市場路徑。其核心思路在於大規模整合分散的 GPU 資源,並以接近雲服務的方式,將這些算力能力對需求方進行統一呈現。

這種設計高度重視使用體驗。開發者無需與單個硬體提供方逐一對接,即可直接調用算力資源,從而顯著降低使用門檻,加快接入與部署節奏。

這一模式的主要優勢包括:

  • 算力調度與交付速度更快
  • 接近傳統雲服務的使用體驗,學習成本較低
  • 有機會接入規模化、集中化的算力供給池

與此同時,聚合模式也引入了新的依賴關係。算力提供方的品質、節點運行的穩定性,以及長期參與意願,都會直接影響整體服務表現。此外,只有在持續存在真實需求的前提下,聚合算力模型才能保持經濟上的可行性。

對於 IO 而言,核心問題在於:算力聚合是否能夠在規模持續擴張的同時,依然保持可預測的效能表現與穩定的算力利用率

iExec(RLC):以安全與可驗證執行為核心的算力市場

iExecRLC)代表了一種以安全執行為導向的算力市場模式,其重點並不在於大規模聚合 GPU 資源,而在於為 AI 與資料密集型工作負載提供可信的鏈下計算執行環境

不同於雲化的算力聚合方案,iExec 更強調可信執行環境(TEE)與可驗證計算機制。開發者可以在鏈下完成計算任務,同時透過鏈上機制實現存取控制、結算與執行結果驗證。因此,iExec 常被視為適用於對資料完整性、隱私保護與執行可信度要求較高的基礎設施,而不僅僅追求極致算力效能。

該模式的主要優勢包括:

  • 支援可驗證的鏈下安全計算
  • 透過市場化機制取得算力資源
  • 明確區分協調層與執行層,架構邊界清晰

與此同時,這一模式也存在相應取捨。計算效能的擴展能力與 GPU 可得性,依賴於參與算力提供方的規模與品質,且 iExec 並非以通用 GPU 雲服務為設計目標。