Gonka協議聯合創始人Anastasia:誰掌控算力,誰就隱性掌控AI的未來
- 核心觀點:Gonka聯合創始人認為,AI行業的核心瓶頸與權力節點正從模型轉向底層算力,其中心化將導致創新壁壘、租金提取模式與系統性脆弱性,而Gonka協議旨在通過去中心化網路解決這一問題,構建更可控、安全的AI算力基礎設施。
- 關鍵要素:
- 算力成為關鍵瓶頸:現代AI的主要瓶頸是獲取GPU、電力與資料中心容量的能力,中心化基礎設施正面臨能源密度、散熱等物理極限。
- 中心化算力的三大風險:建立結構性創新壁壘,小團隊被價格排除;鞏固「租金提取」模式,壓制智能的廣泛可及;帶來系統性脆弱性,易受監管、政治或物理擾動影響。
- Gonka的效率設計:協議設計確保幾乎100%算力用於真實AI工作負載(主要是推理),收益與治理權重基於經測量的算力貢獻,而非資本持有。
- 降低網路開銷的關鍵架構:採用「時間限定」的安全與測量機制(如Sprint週期),並透過選擇性、基於信譽的動態驗證,將整體驗證算力佔比控制在約10%以下。
- 保持可訪問性的原則:提供無需許可的接入,基於經驗證算力的比例獎勵,並允許透過算力池聚合資源,同時避免賦予大型算力池結構性優勢。
- 應對監管的靈活性:當前架構透過隨機路由減少資料集中化;未來可透過社群治理,演進以支援特定合規要求,如專用子網或可信執行環境(TEE)。
- 支援AI代理經濟:提供OpenAI相容API,實現無縫整合;定價根據網路負載動態調整,早期成本顯著低於中心化提供商,以支援AI代理自主優化資源。

核心摘要:訓練大型模型需要建設或升級資料中心。但中心化基礎設施如今正面臨硬性的物理極限。為了提升基礎設施能力,AI 被用於創造更大的規模與智慧產出。
然而,對算力的控制正在成為 AI 行業中的關鍵權力節點。
此時,Gonka 應運而生。Gonka 協定是一個無需許可的全球網路,任何人都可以加入,請求通過程式化方式在分散式參與者之間進行路由。在與《Analytics Insight》的獨家對話中,Gonka 聯合創始人兼高級產品經理 Anastasia Matveeva 討論了他們如何在算力獲取方式上進行創新,以構建一個更可控、更安全的 AI 生態系統。
問:公眾關於 AI 的討論多集中在模型的中心化問題上,但對算力中心化的關注卻較少。為什麼對算力的控制正成為 AI 行業中的關鍵權力節點?這種集中會對創新和市場整體帶來哪些風險?
答:公眾討論往往聚焦模型,因為模型是可見的。但真正的權力核心在更底層——算力,這是決定誰能夠構建、部署和擴展 AI 系統的基礎層。
算力控制之所以變得關鍵,是因為經濟與物理層面的原因。現代 AI 的主要瓶頸已不再是演算法,而是獲取 GPU、電力與資料中心容量的能力。
訓練大型模型越來越需要建設或升級資料中心。然而,中心化基礎設施正在遭遇物理極限:能源密度、散熱約束,以及單一地點可承載的最大供電能力。行業正在嘗試極端解決方案——重新設計晶片、散熱系統以及新的能源來源。
這種集中帶來了系統性後果。
首先,它建立了結構性的創新壁壘。算力獲取成為基礎設施特權,而非基於能力的競爭。小團隊、獨立研究者甚至整個地區被價格排除在外,實驗空間縮小,創新趨於保守。
其次,算力中心化鞏固了「租金提取」模式。AI 有潛力創造「豐裕」——智慧本質上是可複製的——但當底層基礎設施稀缺且被控制時,這種豐裕被人為壓制。市場轉向訂閱制、鎖定效應與定價權,而非成本下降與廣泛可及。
第三,它帶來系統性脆弱性。當先進算力集中在少數運營者和地理位置時,監管、政治或物理層面的擾動都會波及整個 AI 生態系統。依賴變成結構性的,而非可選的。
更重要的是,算力並非中立。誰控制算力,誰就隱性決定什麼是可行的、被允許的以及在經濟上可持續的。當這種控制是中心化的,AI 的治理將預設形成,而不是經過設計。
風險不僅是壟斷,而是 AI 發展軌跡的長期扭曲:更少的建設者、更低的應用多樣性、更慢的硬體創新,以及無法匹配下一代模型雄心的基礎設施。
因此,算力必須被視為基礎性基礎設施——能夠在經濟與物理層面擴展的架構,對 AI 的未來至關重要。
問:許多 AI 算力平台——無論中心化還是去中心化——都聲稱高效。在評估 AI 算力系統效率時,真正重要的指標是什麼?這些模型通常在哪些方面遇到實際限制?
答:算力效率常被當作行銷概念。實際上,真正重要的只有少數具體指標,涵蓋用戶側性能、提供方運營效率以及支配兩者的激勵結構。
對用戶而言,效率意味著速度與成本透明。
速度指的是在真實需求下的延遲。中心化樞紐因物理共址通常具有優勢。但如果區塊鏈僅作為安全層,而不參與即時執行路徑,去中心化架構也可以實現相近性能。只要請求保持在鏈下處理,協定本身不會增加延遲。
成本透明同樣關鍵。雖然「每 token 成本」是常見 KPI,但模型完整性往往缺乏透明度。在中心化環境中,產品可能是黑箱。在高峰期,提供方可能調整模型配置以維持利潤,這些變化通常不可見,卻可能影響輸出品質。真正的效率要求定價反映一致的計算精度。
對提供方而言,效率是 GPU 利用率與彈性的平衡。
中心化運營者在利用率方面表現出色,共址環境下 GPU 可接近滿載運行,但缺乏彈性,在需求低谷時需承擔閒置成本。
去中心化網路在一定程度上犧牲利用率以換取彈性,但必須最小化共識與驗證開銷,使算力可隨需求在不同工作負載間重新分配。
最關鍵的是激勵設計。
當收益與更快、更便宜、可驗證的 AI 工作負載掛鉤時,優化成為結構性的。參與者被激勵提升硬體效率、降低延遲、嘗試專用晶片。
反之,如果獎勵或治理權重主要與資本持有掛鉤,優化方向會偏離基礎設施性能,低效將被固化。
在 Gonka 中,效率嵌入協定層:幾乎 100% 的算力用於真實 AI 工作負載(主要是推理)。收益與治理權重基於經測量的算力貢獻,而非資本持有。
真正的效率只有在大多數算力用於真實任務、激勵獎勵經驗證貢獻、內部開銷不隨網路規模失控增長時才會出現。
問:去中心化 AI 算力網路是否可能實現大部分算力用於真實 AI 工作負載,而不是維護網路本身?關鍵架構選擇是什麼?
答:這是可能的——但前提是將開銷視為核心架構約束,而非去中心化的必然副產物。
多數去中心化算力網路將大量資源用於維護共識與安全,而非 AI 工作負載。這是因為生產性工作與安全機制被分離,導致重複計算。
要實現大部分算力用於真實 AI 任務,需要幾個關鍵原則:
第一,安全與測量機制必須是「時間限定」的,而非持續運行。證明機制應集中在明確的短週期內,而不是持續消耗資源。在 Gonka 中,這通過 Sprint(結構化、時間限定週期)實現。週期外,硬體資源可用於真實 AI 工作負載。
第二,通過選擇性與信譽動態調整驗證來減少重複,而非對每個任務進行完全複製驗證。新參與者的工作可能 100% 被驗證;隨著信譽建立,驗證比例可降低至約 1%。整體驗證算力佔比可控制在約 10% 以下,同時保持安全性。
試圖作弊的參與者不會獲得獎勵,因此作弊在經濟上變得不合理。
第三,獎勵與治理權重必須與經驗證的算力貢獻掛鉤,而非資本持有。
當共識輕量化、驗證自適應、激勵與生產性計算對齊時,去中心化算力才能真正服務實際工作負載。
問:去中心化 AI 算力網路通常強調開放參與,但基礎設施要求可能會造成較高的準入門檻。這樣的系統如何在規模化的同時,仍然對算力水準差異很大的參與者保持可訪問性?
答:雖然去中心化網路旨在降低 AI 基礎設施的準入門檻,但長期生存同樣需要與中心化提供商競爭,並滿足現實世界的需求。硬體約束最終歸結為一個核心要求:能夠承載真正有市場需求的模型。
要在保持可訪問性的同時實現規模化,有幾個原則至關重要。
首先,是無需許可的基礎設施接入。任何 GPU 擁有者——無論是單設備運營者,還是大型資料中心——都應當能夠在沒有審批流程或中心化守門機制的情況下加入網路。這消除了結構性的准入壁壘。
其次,是基於經驗證算力的比例獎勵與影響力。在一種以算力權重為基礎的模型中,更高的計算貢獻自然會帶來更多的任務份額、獎勵份額以及治理權重。這並不會讓小參與者與大參與者完全平等——也不應如此。關鍵在於規則統一:影響力由實際計算貢獻決定,而不是由資本、委託機制或金融槓桿決定。
第三,是算力池(Pools)的角色。在具有實際基礎設施要求的系統中,資源聚合會自然出現。算力池允許較小的參與者整合資源、降低波動性,並參與更大規模的工作負載。
然而,架構必須避免賦予大型算力池結構性優勢,或激勵影響力的過度集中。算力池應當作為協調工具存在,而不是成為再中心化機制。
最終,去中心化 AI 算力網路的規模化不應意味著提高準入門檻。它應當意味著在保持中立、透明與一致參與規則的前提下,提高整體算力容量,同時維持網路為用戶創造的真實經濟價值。開放接入、比例化經濟機制以及受控的集中程度,決定了一個系統在成長過程中是否仍然保持去中心化。
問:為什麼在當前時刻,去中心化 AI 算力的問題變得尤為緊迫?如果未來幾年內不解決這個問題,您認為對行業的長期後果會是什麼?
答:這種緊迫性反映了 AI 正從實驗階段轉向基礎設施階段。
如前所述,算力已經成為物理瓶頸。擴展能力越來越不僅僅受資本約束,也受到能源、功率密度以及資料中心限制的制約。同時,先進 GPU 與超大規模基礎設施的獲取,受到長期合約、企業集中化以及國家戰略優先級的影響。
這種組合加深了結構性不對稱。那些控制大規模基礎設施的主體不斷鞏固其優勢,而小型團隊和新興地區的準入門檻持續上升。風險不僅是市場集中化,更是全球算力鴻溝的擴大。
如果這種趨勢持續下去,創新將更多依賴於基礎設施獲取能力,而不是創意本身。AI 市場可能會固化為一種基於租金的模式,在這種模式下,智慧是在少數主導提供商所設定的條件下被訪問的。
因此,去中心化算力並非一場意識形態辯論。它是對可見結構性約束的回應——也是一項將塑造 AI 行業長期架構的選擇。
問:AI 代理(AI agents)正越來越多地自主預訂 GPU 資源。Gonka 的架構如何支援自我調節的 AI 算力經濟實現無縫整合?
答:Agent 化 AI 的興起意味著系統越來越多地做出自主決策——包括獲取計算資源。在這種模型中,算力成為代理之間經濟交互中的核心資產。
這樣的生態系統需要程式化接入、透明的經濟機制以及可靠性。
首先,整合必須是無縫的。Gonka 提供 OpenAI 相容 API,使大多數 AI 代理能夠在不改變其架構或工作流程的情況下接入。
其次,算力經濟必須透明且由系統驅動。定價根據網路負載動態調整,而不是通過合約固定。在網路早期階段,推理成本被設計為顯著低於中心化提供商,因為參與者不僅通過用戶費用獲得補償,還通過類似比特幣發行機制的獎勵獲得補償,該獎勵與可用算力容量成比例。
這種結構使得在預算範圍內運行的 AI 代理能夠高效執行工作負載。隨著網路演進,定價參數仍將接受社區治理。
第三,可靠性在協定層面得到強化。在中心化環境中,可靠性來自認證與服務級別協定。在去中心化基礎設施中,可靠性通過開原始程式碼、第三方審計以及鏈上可測量的計算完成證明與網路性能證明來支援。
這些要素共同使 AI 代理能夠在透明框架下請求算力並分配預算。通過這種方式,Gonka 為自我調節的 AI 算力經濟提供了基礎設施基礎,使代理不僅能夠執行任務,還能動態優化其所依賴的資源。
問:圍繞去中心化技術的監管不確定性正在加劇。Gonka 如何在碎片化的全球市場中,主動應對資料主權與 AI 治理合規問題?
答:在去中心化算力的背景下,主要挑戰在於在網路開放性與多樣且不斷演變的司法管轄要求之間取得平衡。
Gonka 是一個無需許可的全球網路——任何人都可以加入,請求會在分散式參與者之間通過程式化方式進行路由。在當前階段,用戶無法確定性地控制其請求被處理的地理位置。對於具有嚴格資料駐留或區域處理要求的使用場景而言,這目前可能是一種限制。
然而,從隱私角度來看,這種架構減少了資料集中化。每個請求都由隨機選擇的參與者處理,並且獨立路由,從而防止完整用戶歷史的積累。到目前為止,這種模型已經涵蓋了大多數實際使用場景,同時允許網路規模擴展。
隨著網路增長以及市場需求變得更加明確,治理機制允許參與者提出並投票決定架構變更,以支援特定的監管要求。這些變更可能包括:具有額外參與標準的專用子網、特定司法轄區的運營約束,或針對企業工作負載的硬體級保障,例如可信執行環境(TEE)。
去中心化並不會消除合規義務。它提供的是架構靈活性。Gonka 的設計允許網路根據監管與市場需求演進,而不是從一開始就被鎖定在單一合規模型之中。
關於 Gonka.ai
Gonka 是一個旨在提供高效 AI 算力的去中心化網路,其設計目標是最大限度地利用全球 GPU 算力,完成有意義的 AI 工作負載。通過消除中心化守門人,Gonka 為開發者和研究人員提供了無需許可的算力資源訪問,同時通過其原生代幣 GNK 獎勵所有參與者。
Gonka 由美國 AI 開發商 Product Science Inc. 孵化。該公司由 Web 2 行業資深人士、前 Snap Inc. 核心產品總監 Libermans 兄妹創立,並於 2023 年成功融資 1800 萬美元,2025年新增融資5100萬美元,投資者包括 OpenAI 投資方 Coatue Management、Solana 投資方 Slow Ventures、Bitfury、K 5、Insight and Benchmark 合夥人等。項目的早期貢獻者包括 6 blocks、Hard Yaka、Gcore 等 Web 2-Web 3 領域的知名領軍企業。


