過去兩年,人工智能的重心發生了轉變。2022-2023年,一切都圍繞着大型模型及其訓練展開;而如今,真正的戰場不再是構建模型,而是模型的持續運行,以及每天響應數十億次查詢的能力。這是一場推理之戰,其重要性遠超表面。
Messari在其報告《 2025 年人工智能現狀》中明確指出:到 2030 年,推理將佔全球計算需求的 50% 到 75%。如此高的佔比將徹底重塑人工智能基礎設施的格局。
如今,用戶每次打開 ChatGPT、生成圖像、尋求建議、分析文本、請求智能體瀏覽網頁或做出決策時,都在進行推理。同樣,成千上萬的 AI 智能體也在後臺持續運行,無需用戶監控,它們也在進行推理。
其結果是計算資源消耗呈垂直增長,遠遠超過訓練模型本身所需的資源。
新的壓力來自:真實用戶,真實互動
人工智能發展迅猛的原因有很多,但都指向同一個方向:人工智能已成爲一項大衆服務。用戶不再侷限於嘗試,而是以日常、長期且日益複雜的方式使用人工智能。
ChatGPT 會話變得更長、更復雜:根據 Messari 報告的數據,用戶在模型上花費的時間在一年內翻了一番,單次會話的平均時長增加了 75%。這是一個非常明確的信號:人工智能不再是“偶爾”使用的助手,而是一個真正的操作環境,用戶會停留更長時間,發出更廣泛、更密集的請求。
此外,消費級人工智能的爆炸式增長也推波助瀾。2024年,人工智能應用的下載量突破10億,同比增長超過100%。ChatGPT的周活躍用戶已超過7億,而Gemini、Copilot和Claude等應用也呈現出類似的增長趨勢。這股持續不斷的需求浪潮轉化爲計算資源,進而推高了成本。
“推理”因素:智能模型的成本要高得多
更復雜的是,以“推理”爲導向的模型的興起。這類模型不僅能完成句子,還會嘗試進行推理、解釋和規劃。與傳統模型相比,這些模型回答同一個問題所需的詞元數量最多可達十倍。
如果再加上業界已經採用了基於強化學習的後訓練技術(如DeepSeek所展示的那樣),計算壓力將進一步激增。強化學習會針對每個問題生成數千次迭代,從而在工業規模上成倍增加計算消耗。
換句話說:人工智能越智能,運行成本就越高。
成本問題:推理已成爲人工智能新的“核心挑戰”
有一點經常被低估:訓練成本巨大,但這是一次性成本。模型一旦訓練完成,就永久存在了。而推理的成本則截然不同,它是持續的、無限的,與使用它的用戶、代理和應用程序的數量成正比。
對於 OpenAI、Anthropic 和 Google 等大型人工智能實驗室而言,推理已成爲一項主要支出。而這種趨勢正在悄然醞釀一場與加密生態系統息息相關的變革。
開源改變了格局:更小巧、更快、更具成本效益的模型。
儘管專有模型的規模和複雜性持續增長,但開源模型正在迅速縮小差距。根據 Messari 引用的人工智能分析基準測試,如今最佳封閉模型和大規模開源模型之間的差異出奇地小,尤其是在成本方面。
與 ChatGPT-5 相比,具有 1200 億個參數的開放模型在推理成本上最多可降低 90%,而能力損失相對較小。
但真正的變革在於參數量在40億到400億之間的中小型模型。如今,許多這類模型能夠在單個消費級GPU(例如RTX 4090或5090)上運行,從而解決複雜的任務。這意味着推理不再需要集中在龐大的數據中心進行:它可以分佈式運行。
而這正是去中心化人工智能的世界找到其天然立足之地的地方。
去中心化計算網絡(DCN)的興起:一種新的計算經濟
去中心化計算網絡(DCN) ,例如 Render、Akash、io.net、Aethir、Hyperbolic、EigenCloud 和 Exabits,彙集了分佈在全球各地的數百萬個 GPU。多年來,這些網絡一直難以找到真正的市場:由於延遲以及 GPU 之間持續的信息交換,訓練大型模型實在太過複雜。
但推斷則是另一回事。
推理所需的橫向通信量要少得多,可以高度並行化地執行,並且能夠利用異構硬件。它不需要完美且高度同步的集羣。對於成千上萬個分散的節點來說,推理是一項理想的任務,尤其是在如今小型模型也變得異常強大的情況下。
這一次,市場真正到來了。Messari 將其定義爲整個去中心化人工智能 (deAI) 領域首次真正意義上的“產品市場契合”。
42號案例:羣體智能的實際演示
報告中提到的諸多創新中,最引人注目的是“四十二網絡”(Fortytwo Network)。該網絡協調安裝在用戶筆記本電腦上的小型模型。這些模型像蜂羣一樣協同工作:每個模型回答同一個問題,然後評估其他模型的回答,最終,網絡基於共識生成最優答案。
該機制可生成鏈上信用、聲譽和獎勵。其效率之高,使得 Fortytwo 甚至能夠生成完全由集羣生成的數據集,並用 Rust 語言對專用模型進行微調,最終取得優於規模更大的模型的結果。
這是一個具體的例子,說明去中心化不僅是可取的,而且已經具有競爭力。
驗證問題:去中心化推理的關鍵所在
每次在分佈式節點上執行請求時,都會出現一個關鍵問題:如何確保結果正確?而這正是密碼學發揮決定性作用的地方。
梅薩里分析了目前三種占主導地位的方法:
- 零知識證明(zkML),速度慢但極其安全;
- 樂觀體系,即除非受到質疑,否則結果被認爲是有效的;
- 硬件安全區(TEE),速度更快,但基於硬件信任。
該領域的先驅者之一是 EigenCloud,它爲市場帶來了確定性和可驗證的推理,與 OpenAI 的 API 兼容,並且已被 Coinbase 和 Google 用於代理框架。
驗證並非技術細節:它使人工智能適用於金融、醫療、治理和自主交易等領域。它是人工智能與Web 3.0之間的橋樑。
未來:由持續消耗計算資源的代理人組成的經濟體
報告的結論很明確:人工智能的未來不會由規模最大的模型主導,而是由那些能夠以最具可擴展性、成本效益和可驗證性的方式進行推理的模型主導。如果今天人類用戶發出數百萬個請求,那麼明天自主代理將發出數十億個請求。而每一個請求都需要計算成本。
到那時,去中心化計算網絡將不再是一種實驗性的選擇,而將成爲一種經濟必需品。
結論
我們正在進入推理時代,而不是訓練時代。
這是一個需求無限增長的時代,計算不再是一項孤立的投資,而是一種持續的流動,每秒鐘都需要爲數百萬個模型(無論大小)提供服務。
正是在這廣闊的經濟空間中,加密貨幣世界找到了它最自然的角色:協調、驗證、分配和節約支持日益智能化的社會所需的計算能力。