BTC
ETH
HTX
SOL
BNB
查看行情
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt

AI Agent持續陰跌是由最近爆火的MCP協議造成的?

星球君的朋友们
Odaily资深作者
2025-03-17 06:07
本文約2144字,閱讀全文需要約4分鐘
Manus + MCP才是web3 AI Agent此番遭受衝擊的關鍵。
AI總結
展開
Manus + MCP才是web3 AI Agent此番遭受衝擊的關鍵。

原文作者:Haotian(X: @tme l0 211

有朋友說,諸如#ai16z、 $arc 等web3 AI Agent 標的的持續陰跌是由最近爆火的MCP 協議造成的?乍聽,整個人有點懵,WTF 有關係嗎?但細想之後發現,真有一定的邏輯:已有web3 AI Agent 的估價定價邏輯變了,敘事方向和產品落地路線亟需調整!以下,談個人觀點:

1)MCP(Model Context Protocol)是一個旨在讓各類AI LLM/Agent 無縫連接到各種資料來源和工具的開源標準化協議,相當於一個即插即拔USB「通用」接口,取代了過去要端到端「特定」封裝方式。

簡單而言,原本AI 應用之間都有明顯的資料孤島,Agent/LLM 之間要實現互通有無則需要各自開發相應的調用API 接口,操作流程複雜不說,還缺乏雙向交互功能,通常都有相對有限的模型訪問和權限限制。

MCP 的出現等於提供了一個統一的框架,讓AI 應用可以擺脫過去的資料孤島狀態,實現「動態」存取外部的資料與工具的可能性,可以顯著降低開發複雜性和整合效率,尤其在在自動化任務執行、即時資料查詢以及跨平台協作等方面有明顯助推作用。

說到此,很多人立刻想到了,如果用多Agent 協作創新的Manus 整合此能促進多Agent 協作的MCP 開源框架,是不是就無敵了?

沒錯,Manus + MCP 才是web3 AI Agent 此番遭受衝擊的關鍵。

2)但,匪夷所思的是,無論Manus 或MCP 都是面向web2 LLM/Agent 的框架和協定標準,其解決的都是中心化伺服器之間的資料互動和協作的問題,其權限和存取控制也依賴各個伺服器節點的「主動」開放,換句話說,它只是一種開源工具屬性。

照理說,它和web3 AI Agent 追求的「分散式伺服器、分散式協作、分散式激勵」等等中心思想完全背離,中心化的義大利炮怎麼能炸掉去中心化的碉堡呢?

究其原因在於,第一階段的web3 AI Agent 太過於「web2 化」了,一方面源自於不少團隊都來自web2 背景,對web3 Native 的原生需求缺乏充分的理解,比如,ElizaOS 框架最初就是一個,幫助開發者快捷部署AI Agent 應用的封裝框架,以及整合了,幫助開發者快速開發落定AI Agent 應用。但更真的話,這套服務框架和web2 的開源工具有何不同呢?又有什麼差異化優勢呢?

呃,難道優勢就是有一套Tokenomics 激勵方式?然後用一套web2 可以完全取代的框架,激勵一批更多為了發新幣而存在的AI Agent?可怕。 。順著這個邏輯看,你大概明白,為何Manus +MCP 能夠對web3 AI Agent 產生衝擊?

由於一眾web3 AI Agent 框架和服務只解決了類同web2 AI Agent 的快速開發和應用需求,但在技術服務和標準和差異化優勢上又跟不上web2 的創新速度,所以市場/ 資本對上一批的web3 的AI Agent 進行了重新估值和定價。

3)說到此,大致的問題想必找到癥結所在了,但又該如何破局呢?就一條路:專注於做web3 原生的解決方案,因為分散式系統的運作與激勵架構才是屬於web3 絕對差異化的優勢。

以分散式雲算力、數據、演算法等服務平台為例,表面上看似這種以閒置資源為由頭聚合起來的算力和數據,短期根本無法滿足工程化實現創新的需要,但在大量AI LLM 正在拼集中化算力搞性能突破軍備競賽的時候,一個以“閒置資源、低成本”會讓web 天團的服務模式自然開發者和噱頭和噱頭。

但等web2 AI Agent 過了拼性能創新的階段,就勢必會追求垂直應用場景拓展和細分微調模型優化等方向,那個時候才會真正顯現web3 AI 資源服務的優勢。

事實上,當以資源壟斷方式爬上巨頭位置上的web2 AI 到一定階段,很難再退回來用農村包圍城市的思想,逐個細分場景擊破,那個時候就是過剩web2 AI 開發者+ web3 AI 資源抱團發力的時候。

事實上, web3 AI Agent 除了web2 的那套快速部署+ 多Agent 協作通訊框架外+Tokenomic 發幣敘事之外,有很多web3 Native 的創新方向值得去探索:

例如,配備一套分散式共識協作框架,考慮到LLM 大模型鏈下運算+ 鏈上狀態儲存的特性,需要許多適配性的元件。

1、一套去中心化的DID 身份驗證系統,讓Agent 能夠擁有可驗證的鏈上身份,這像執行虛擬機為智能合約生成的唯一性地址一樣,主要為了後續狀態的持續追蹤和記錄;

2.一套去中心化的Oracle 預言機系統,主要負責鏈下數據的可信獲取和驗證,和以往Oracle 不同的是,這套適配AI Agent 的預言機可能還需要做包括數據採集層、決策共識層、執行反饋層多個Agent 的組合架構,以便於Agent 的鏈上所需數據和鏈下達;

3.一套去中心化的儲存DA 系統,由於AI Agent 運作時的知識庫狀態存在不確定性,且推理過程也較為臨時性,需要一套把LLM 背後的關鍵狀態庫和推理路徑記錄下來儲存於分散式儲存系統中,並提供成本可控的資料證明機制,以確保公鏈驗證時的資料可用性;

4.一套零知識證明ZKP 隱私計算層,可以連動包括TEE 時、FHE 等在內的隱私計算解決方案,實現實時的隱私計算+ 數據證明驗證,讓Agent 可以有更廣泛的垂直數據來源(醫療、金融),繼而on top 之上有更多專業定制化的服務Agent 出現;

5.一套跨鏈互通協議,有點類似MCP 開源協議定義的框架,差別在於這套Interoperability 解決方案,需要有適配Agent 運作、傳遞、驗證的relay 和通訊調度機制,能夠完成Agent 在不同鏈間的資產轉移和狀態同步問題,尤其是包含Agent 上下文和Prompt、知識庫、Memory 等複雜的狀態等等;

在我看來,真正的web3 AI Agent 的攻克重點應該在於如何讓AI Agent 的「複雜工作流程」和區塊鏈的「信任驗證流程」如何盡可能契合。至於這些增量解決方案,由現有的老敘事項目升級迭代而來,還是由新構成的AI Agent 敘事賽道上的項目重新鑄就,都有可能性。

這才是web3 AI Agent 應該努力Build 的方向,才是符合AI +Crypto 大宏觀敘事下的創新生態基本面。若無法有相關的創新開拓與差異化競爭壁壘建立,那麼,每一次web2 AI 賽道的風吹草動,都可能攪得web3 AI 天翻地覆。

原文連結

AI
歡迎加入Odaily官方社群