图片

人工智能系統正在做出影響資金流向、醫療結果和自主行動的決策,但是,如何驗證人工智能是否真的計算出了它聲稱要計算的內容?它是否使用了它承諾使用的模型?它是否在此過程中泄露了你的數據?

實現可驗證人工智能的方法有很多種,例如可信硬件、共識機制以及在安全區域內重新執行,每種方法都有其優點,但最有趣的方法是零知識機器學習(ZKML),它通過純數學和最小信任假設來解決驗證問題。

內容大綱

  • Succinct 驗證:強大的計算能力,小額的收據

  • 隱私:零知識真正有用的部分

  • 可編程貨幣:爲什麼代理需要證明

  • 領域概覽:誰在建造什麼

  • 早期階段(2022-2023)概念驗證

  • Halo2 應用於 ZKML

  • 爆炸(2024-2025):選擇你的戰士

  • 技術現實

  • 應用案例:究竟什麼才真正值得證明?

  • 基本過濾器

  • DeFi:資金的聚集地

  • 無需信任的代理

  • 醫療保健:隱私與可審計性

  • 遊戲:可證明的公平性

  • 模型市場:機器學習即服務(MLaaS)驗證

  • AI 記憶

  • 2025 年還缺少什麼

  • 2026 年 ZKML 的預測

  • 硬件浪潮

  • 證明系統:更優的數學

  • 運算符覆蓋範圍爆炸式增長

  • 成本曲線變化導致用例演化

  • 歸根結底

  • 無聊是好事,無聊意味着它正在變得真實。

图片

聽着,我們要跳過硬件和重執行方法 - TEE、共識機制等等,不是因爲它們不好,而是因爲對我來說,有趣的問題是純粹的數學驗證:將零知識證明應用於機器學習 - ZKML。

三年前,這個領域在“行業”中幾乎不存在,後來,Modulus Labs、EZKL、Daniel Kang 博士、Cathie So 博士以及其他幾位人士出現,提出“讓我們讓人工智能可驗證”,立即出現的反對意見顯而易見:零知識證明虛擬機(zkVM)的開銷是傳統虛擬機的 10 萬倍到 100 萬倍,在零知識證明中運行推理就像在混凝土中游泳一樣困難。

那爲什麼要這麼做呢?

事實證明,ZKML 值得付出努力的原因有三點。

Succinct 驗證:強大的計算能力,小額的收據

ZKML 之所以有效,正是因爲這種不對稱性:計算成本可能很高,而驗證成本可能很低。

AWS 會在 GPU 集羣上運行您的模型一小時,然後,它會向您的手機發送一個加密收據,驗證過程只需 50 毫秒,您的手機從數學角度知道 - 也就是知道 - 計算已正確完成,無需任何信任。

這開啓了全新的領域:無需信任的代理工作流程,你手機上的代理與公司數據中心的代理通信,後者再與以太坊上的代理通信,最終與 Solana 上的代理通信,每個代理都像接力賽一樣傳遞加密信息,實現無需信任的代理商業運作,整個推理“鏈”的端到端可驗證。

如果沒有它呢?一個受損的代理就會破壞整個工作流程,在資金轉移或醫療決策等自主系統中,這並非漏洞 - 而是一場即將發生的災難。

隱私:零知識真正有用的部分

ZKP 中的 ZK 表示證明不會泄露任何信息。

醫院利用患者數據進行診斷,並生成證明,現在,他們無需泄露任何患者記錄,即可向監管機構證明“我們使用了經 FDA 批准的模型並獲得了此結果”,數據保持私密,而證明則公開。

或者:一家銀行證明其欺詐檢測模型運行正常,但並未透露模型本身(競爭優勢)或交易數據(監管要求),審計人員覈實後,皆大歡喜。

我們也在關注人工智能向設備端發展的趨勢 - Gemma、蘋果的 Foundation Models,以及整個本地推理浪潮,這些模型最終都需要與外部世界通信,zkML 可以讓運行在你筆記本電腦上的模型向遠程系統證明它確實進行了計算,而無需上傳你的數據或模型權重。

zkML 有很多需要隱私保護的應用場景,並非所有代碼庫都提供隱私保護 - 開發者們請注意這一點!

可編程貨幣:爲什麼代理需要證明

在 2025 年,加密證明能夠控制實際的貨幣,這比人們意識到的更爲重要。

用於代理間支付的 X402 和 ERC-8004 等標準正在興起,我們正邁向自主經濟時代,在這樣的時代裏:

  • 代理商從提供商處購買數據

  • 對多個模型進行推理

  • 爲客戶帶來成果

  • 完成支付結算 - 全程無需人工干預

每一步都需要證明,你使用了付費數據嗎?你運行了你聲稱的模型嗎?這個結果確實是由那次計算得出的嗎?zkML 通過加密技術回答了這些問題。

當交易者處理的是真金白銀 - 不是測試網代幣 - 而是實際價值時,基於數學的安全機制就必不可少了,你需要證明,或者你需要信任,如果你要構建的是無需信任的系統,那麼選擇顯而易見。

2025 年 - ZKML 仍然很昂貴,開銷確實存在,但開銷正在減少(100 萬倍 → 10 萬倍 → 1 萬倍),其價值主張也越來越清晰。

zkPyTorch 於 2025 年 3 月發佈,VGG-16 推理的證明時間瞬間縮短至 2.2 秒,Lagrange 的 DeepProve 在 8 月份解決了大規模 LLM 推理的問題,秋季,我們在 JOLT Atlas 代碼庫中也觀察到了類似的加速,而且是在未使用 GPU 的情況下,對多種模型都進行了加速。

在 2025 年 - 我們早已告別了玩具階段,現在,利用零知識證明(ZKP)技術,有些模型可以在幾秒鐘內得到驗證,隨着開發工具的不斷完善,我們可以期待在 2026 年看到這項突破性的基礎設施在更多項目中得到實際應用。

計算成本只需一次性支付 - 即可獲得可驗證性、隱私保護以及無需中介即可跨越信任邊界協調代理的能力,在人工智能代理即將開始轉移數十億美元資金的世界裏,這並非奢侈品,而是必不可少的基礎設施。

領域概覽:誰在建造什麼

zkML 從 2022 年的“可能實現”發展到 2025 年的“實際發佈”,以下是我們如何走到這一步以及誰在做什麼。

图片

早期階段(2022-2023):概念驗證

Modulus Labs 率先發起了這項運動,斯坦福大學的 Daniel Shorr 及其團隊發表了(智能的成本)- 這是首個真正意義上針對人工智能零知識證明系統的基準測試,他們的論點是:如果零知識彙總能夠降低以太坊的計算成本,那麼或許也能將人工智能引入鏈上。

劇透:這玩意兒貴得要死,光是驗證智能合約裏最小的部分,每筆交易就要 20 美元,但它成功了,他們開發了 RockyBot(鏈上 AI 格鬥遊戲)和 Leela vs the World 來驗證這個概念,更重要的是,他們證明了在零知識條件下也能驗證 GPT-2 和 Twitter 的推薦算法。

他們使用的底層技術是一種名爲 GKR 的協議,Vitalik 最近做了一篇關於它的教程,所以我在這裏不再贅述細節,如果你對 GKR 感興趣,可以去看看那篇文章,GKR 的核心思想是允許你在中心層跳過加密承諾,並且機器學習操作在這種環境下“感覺”自然流暢。

事實證明,矩陣乘法和其他一些關鍵操作在使用專門的協議(例如 sumcheck 協議和查找參數)時效率更高,Thaler 多年前在他的著作(證明、論證與零知識)中對此核心原因進行了非常透徹的解釋:

預覽:MATMULT 的其他協議,另一種交互式 MATMULT 協議是通過將 GKR 協議(將在 4.6 節中介紹)應用於計算兩個輸入矩陣 A 和 B 的乘積 C 的電路 C 而獲得的,該協議中的驗證器運行時間爲 O(n^2),證明器運行時間爲 O(S),其中 S 是電路 C 中的門數。

本節所述的 MATMULT 協議的優勢體現在兩個方面,首先,它並不關心證明器如何找到正確答案,相比之下,GKR 協議要求證明器以規定的方式計算答案矩陣 C,即逐門地評估電路 C;其次,本節協議中的證明器只需找到正確答案,然後額外執行 O(n^2) 的工作來證明其正確性,假設不存在線性時間矩陣乘法算法,那麼這 O(n^2) 項是一個低階的加性開銷。相比之下,GKR 協議至少會給證明器引入一個常數因子的開銷,在實踐中,這體現在證明器的運行速度比(無法驗證的)MATMULT 算法慢很多倍,而證明器的運行速度僅慢不到百分之一。

Thaler 也是最早倡導將 sumcheck 協議作爲 ZK 所有核心構建模塊的人之一!(@SuccinctJT #tendsToBeRight)

Halo2 應用於 ZKML

大約在同一時期,Jason Morton 創立了 EZKL,他的方法與衆不同 - 接受任何 ONNX 格式(神經網絡的開放標準)的模型,將其轉換爲 Halo2 電路,然後生成證明,其殺手鐗是:你無需成爲密碼學家,只需導出你的 PyTorch 模型,用 EZKL 讀取,即可獲得證明。

爆炸(2024-2025):選擇你的戰士

图片

* 如果您的項目應該被列入名單,或者 2025 年時相關信息有所變更,請告知我!

* 以下聲明均來自項目方在其博客文章中的自我介紹,有時,這些說法可能有所誇大!😬😬

EZKL(2023 年至今)

  • ONNX → Halo2 電路

  • 基準測試表明,它的速度比 RISC Zero 快 65 倍,比 Orion 快 3 倍

  • 比 RISC Zero 節省 98% 的內存

  • 缺點:目前僅支持部分 ONNX 運算符(他們正在添加更多運算符)

  • 主要挑戰:量化,從浮點運算到定點運算,精度會有所損失

  • 可能保護隱私 ✅

Lagrange DeepProve(2024 年發佈,2025 年初通過 GPT-2 驗證)

  • 這個到來很快,據稱比 EZKL 快 54-158 倍

  • 首先要證明 GPT-2 能夠進行完整的推理 - 不僅僅是部分推理,而是全部推理

  • 驗證結果:MLP 速度提升 671 倍,CNN 速度提升 521 倍(驗證時間縮短半秒)

  • 使用 sumcheck 協議 + 查找參數(logup GKR)

  • 正在開發 LLAMA 支持 - GPT-2 和 LLAMA 在架構上很相似,所以它們很接近

  • 擁有去中心化的證明者網絡(運行在 EigenLayer 上)

  • 不太可能保護隱私 ❌

zkPyTorch(Polyhedra Network,2025 年 3 月)

  • 這是現代變形的突破性進展

  • 首先證明 Llama-3 - 每個代幣 150 秒

  • VGG-16 耗時 2.2 秒

  • 三層優化:預處理、ZK 友好量化、電路優化

  • 利用 DAG 和跨核心並行執行

  • 與 Expander 驗證引擎集成

  • 不太可能保護隱私 ❌

ZKTorch(Daniel Kang,2025 年 7 月)

  • “通用”編譯器 - 處理任何任務

  • GPT-J(60 億個參數):在 64個 線程上運行耗時 20 分鐘

  • GPT-2:10 分鐘(之前超過 1 小時)

  • ResNet-50 證明文件:85KB(Mystique 生成的證明文件爲 1.27GB)

  • 採用證明累積法 - 將多個證明合併成一個簡潔的證明

  • 這是目前通用 zkML 的速度之王

  • 學術目標而非產業

Jolt Atlas(NovaNet / ICME Labs,2025 年 8 月)

  • 基於 a16z 的 JOLT zkVM,並針對 ONNX 進行了修改

  • zkVM 方法,但實際上速度非常快

  • 關鍵洞察:機器學習工作負載喜歡使用查找表,而 JOLT 本身就支持查找表

  • 沒有商多項式,沒有字節分解,沒有大積 - 只有查找和求和檢查

  • 靈活的量化支持 - 不會生成完整的查找表,因此您不會被限制在特定的量化方案中

  • 理論上可以擴展到浮點運算(大多數其他運算方式仍侷限於定點運算)

  • 非常適合需要同時滿足身份驗證和隱私保護需求的代理商使用場景

  • 可通過摺疊方案(HyperNova / BlindFold)支持真正的零知識計算 ✅

技術現實

图片

量化困境:機器學習模型使用浮點運算,而零知識證明使用有限域運算(本質上是整數),你需要進行轉換,這會損失精度,大多數零知識機器學習(ZKML)都會對模型進行量化,因此精度會略有下降,但另一方面,許多用於小型設備和生產環境的機器學習模型都是量化模型。

每個框架的處理方式都不同,有些框架使用更大的位寬(更精確,但速度較慢),有些框架使用查找表,有些框架則巧妙地運用定點表示,Jolt Atlas 之所以喜歡我們的方法,是因爲我們不需要爲許多機器學習運算符實例化查找表。

目前還沒有人找到完美的解決方案,只能通過不斷迭代,逐步增加應用場景,這也是我們對 ZKML 近期發展前景保持樂觀的原因之一。

運算符覆蓋範圍:ONNX 擁有 120 多個運算符,大多數 zkML 框架可能只支持其中的 50 到 200 個,這意味着某些模型架構目前還無法正常工作,各個團隊都在爭分奪秒地添加更多運算符,但這並非易事。

您的生產模型使用了 zkML 框架不支持的操作符,這種情況比您想象的要常見。

ONNX 規範包含超過 120 個運算符,大多數 zkML 框架僅支持 50 個或更少,差距在於:

  • 您爲特定用例編寫的自定義圖層:否

  • 特殊歸一化方法(GroupNorm、LayerNorm 的變體):或許

  • 動態控制流(if 語句、循環):通常不

  • 注意力機制:預計在 2024-2025 年纔會添加到主要框架中

  • 近期創新(閃屏吸引、旋轉嵌入):可能不會

當你嘗試導出模型時,就會發現這個問題,ONNX 轉換成功,但框架導入失敗,“不支持的運算符:[任何運算符]。”

現在,你正在重寫模型,使其僅使用受支持的運算符,這並非無關緊要的小麻煩 - 這是你在開始訓練之前就應該瞭解的架構限制,這也是我們喜歡 zkVM 方法的原因之一……因爲每個運算符都更容易實現即插即用,而以預編譯爲中心的方法則更需要手動操作🫳🧶。

激活函數:謹慎選擇,在傳統的機器學習中,激活函數是免費的,ReLU、sigmoid、tanh、GELU - 選擇任何有效的即可。

在 zkML 中,激活函數是開銷很大的操作,會導致電路崩潰。

爲什麼激活函數計算成本很高?ZK 電路基於多項式運算 - 有限域上的加法和乘法,這些運算成本很低,因爲它們可以直接映射到電路約束,但激活函數是非線性的,無法很好地分解爲域運算。

ReLU 需要計算“如果 x > 0 則 x 否則 0” - 這種比較需要多個約束條件來表示,Sigmoid 需要 1/(1 + e^(-x)) 在有限域上進行冪運算,這非常繁瑣,需要大量的乘法運算,而且通常需要查找表,Softmax 將冪運算、求和運算和除法運算組合在一起,作用於整個向量,將原本簡單的運算變成了每個神經元需要數百甚至數千個約束條件的複雜電路。

便宜的:

  • 線性(無需激活):免費

  • 規模加法:基本免費

中間的:

  • ReLU:需要比較,易於管理

  • 階躍函數:成本與 ReLU 類似

昂貴的:

  • Sigmoid 函數:電路中的指數運算很麻煩

  • Tanh:更糟

  • Softmax:指數運算 + 除法 + 歸一化,真正的痛苦

  • GELU / SwiGLU:先別管它了(目前……我們還有一些工作要做)

現代 Transformer 傾向於使用 GELU 及其變體,而 zkML Transformer 則只能使用近似算法或更簡單的替代方案。

這就是爲什麼框架要構建非線性查找表的原因,預先計算常用值,直接引用它們而不是重新計算,速度更快,但代價是內存佔用增加,並且限制了量化選擇。

應用案例:究竟什麼才真正值得證明?

你剛剛讀到了關於 10,000 倍開銷、量化地獄和指數級成本曲線的內容,一個很合理的問題:爲什麼會有人讓自己遭受這種痛苦?

答案並非“所有東西都應該用 zkML”,答案是:某些問題迫切需要可驗證性,因此付出額外的代價是值得的。

基本過濾器

在深入探討用例之前,先來做個測試:信任失敗的成本是否高於證明的成本?

如果你運行的推薦算法是用來展示貓咪視頻的,那麼信任失敗不會造成任何損失,直接展示貓咪視頻就行了,沒人會在意你的模型是不是你聲稱的那個。

如果你運行一個管理着 1000 萬美元資產的交易機器人,信任危機將是災難性的,機器人失控,倉位被強制平倉,你還得向投資者解釋爲什麼你會信任一個不透明的 API。

zkML 在以下情況下適用:

  • 高風險:金錢、健康、法律決定、安全

  • 信任鴻溝:多方之間互不信任

  • 隱私限制:敏感數據不能共享

  • 可審計性要求:監管機構或利益相關者需要證據

  • 對抗性環境:有人有作弊的動機

如果你的使用場景不符合以上至少兩項,那麼你可能暫時不需要 zkML。

DeFi:資金的聚集地

图片

DeFi 是 zkML 的天然棲息地,它具備以下特點:高價值交易需要在區塊鏈上進行無需信任的執行和簡潔的驗證,同時還要保持對用戶的透明度,敵對勢力會試圖利用每一個漏洞!

價格預言機

第一個真正意義上的 zkML 產品是 Upshot + Modulus 的 zkPredictor,問題在於:NFT 的估值是由專有的機器學習模型計算出來的,如何才能信任這些價格信息呢?

傳統預言機:“相信我們,這是我們模型給出的結果。” zkML 預言機:“這裏有一個加密證明,證明這個價格來自這個模型,運行在這個特定的數據上(數據可能屬於隱私數據)。”

這項證明意味着,您可以基於這些價格構建金融產品(貸款、衍生品),而無需信任 Upshot,他們無法在不破壞證明的情況下操縱價格,數據保持私密,但計算過程可驗證。

這種模式具有普遍性:任何時候 DeFi 協議需要 ML 衍生數據(波動率估計、風險評分、收益率預測),zkML 都可以在不泄露模型的情況下證明計算結果。

交易機器人和代理

想象一下:你已經在多個 DeFi 協議上部署了一個收益優化代理,它在 Uniswap 上管理流動性頭寸,在 Curve 上進行挖礦,在 Aave 上進行再平衡。

如何確定它正在正確執行你的策略?如何向有限合夥人證明他們的資金是按照你宣傳的算法進行管理的?

使用 zkML,代理會爲每個操作生成一個證明,“我將 50 個 ETH 從資金池 A 轉移到資金池 B,因爲我的模型預測收益更高,這是我使用您批准的策略的證明。”

Giza 正是基於 Starknet 構建了這一功能,他們的 LuminAIR 框架(使用 StarkWare 的 STWO 證明器)允許你爲 DeFi 構建可驗證的代理,一個能夠重新平衡 Uniswap V3 頭寸的代理可以證明每次重新平衡決策都源自承諾的模型,模型權重保密,交易策略保密,而證明過程公開。

這實現了智能體之間的交互,你的智能體可以與其他智能體進行無需信任的協作,因爲雙方都在生成可驗證的計算結果,無需可信的中介機構,只有純粹的數學運算。

風險模型與信用評分

銀行使用機器學習進行信貸決策,DeFi 協議使用機器學習來設定抵押率,問題:如何證明你的風險模型得到了一致的應用?

傳統系統:“相信銀行。” zkML 系統:“每一項貸款決定都附帶證明,證明該特定模型在這些固定參數下評估了該申請人的數據。”

這很重要,因爲:

  • 監管合規:證明你沒有歧視

  • 公平性審計:證明同一模型適用於所有人

  • 爭議解決:如果有人對某項決定提出質疑,您可以提供事件經過的加密證據

模型可以保持專有,數據可以保持私密,證據表明整個過程是公平的。

無需信任的代理

還記得開頭嗎?代理們像接力賽一樣傳遞密碼?

設想這樣一個場景 - 一個智能體生態系統,其中:

  • 手機上的代理 A 分析了你的日曆,並決定你需要預訂機票

  • 代理 B(旅行預訂服務)查找航班和價格

  • 代理 C(支付處理商)執行交易

  • 代理 D(費用跟蹤)會將其記錄下來,供貴公司會計使用

每一步都需要驗證前一步,如果代理 A 的分析存在欺詐行爲,代理 B 將不會執行操作,如果代理 B 的報價被篡改,代理 C 將不會付款,如果代理 C 的交易可疑,代理 D 將不會記錄。

如果沒有 zkML:要麼每個代理都在可信區域運行,要麼所有代理都互相信任,這兩種方法都無法擴展。

使用 zkML:每個代理生成一個證明,代理 B 驗證代理 A 的證明,代理 C 驗證代理 B 的證明,整個流程無需信任,一個代理可以運行在 AWS 上,另一個運行在你的手機上,還有一個運行在以太坊上,這都無關緊要 - 數學原理將它們連接起來。

x402 和 ERC-8004 的未來

這些新興標準定義了人工智能代理之間如何直接支付報酬,整個過程無需人工干預,但支付需要信任。

如果代理 A 聲稱“我做了這個分析,付錢給我”,代理 B 就需要證據,如果代理 B 管理資金而代理 A 撒謊,那就是盜竊,zkML 提供了證據層。

我們正邁向自主代理經濟時代,代理之間互相僱傭完成子任務,代理通過加密技術證明其工作成果,支付基於已驗證的完成情況自動進行,沒有任何中心化機構控制整個工作流程。

NovaNet 的 Jolt Atlas 正是爲此而設計的,它兼顧隱私和驗證,該代理程序無需泄露輸入、輸出或中間狀態即可證明其計算正確性,這對於所有信息都高度敏感的商業代理程序而言堪稱完美之選。

醫療保健:隱私與可審計性

醫療保健行業正被機器學習淹沒,卻又對隱私泄露感到恐懼,HIPAA、GDPR、地區性法規 - 每個司法管轄區都有關於患者數據的規定。

图片

診斷模型

一家醫院運行着一套機器學習診斷模型,該模型已獲得 FDA 批准,並經過全面驗證,患者入院後,模型分析影像數據,並提出治療建議。

監管機構問道:“你實際使用的是 FDA 批准的型號嗎?還是使用了修改後的型號?你能證明嗎?”

傳統答案:“相信我們的日誌。” zkML 答案:“這裏有一個加密證明,證明這個模型(權重已確定)在該患者的數據上運行,併產生了此結果。”

患者數據絕不會離開醫院,模型權重也嚴格保密(受知識產權保護),但相關證明會提供給監管機構、保險公司以及任何需要覈實的機構。

缺乏數據共享的合作研究

多家醫院都想利用各自的患者數據訓練一個模型,但由於隱私法的限制,它們無法共享數據,同時,由於彼此競爭,它們之間也無法建立信任。

zkML 的優勢在於:每家醫院都能證明其本地訓練是在有效數據上正確完成的,所有證明彙總後,每個人都能獲得更優的模型,而且,任何人都看不到其他醫院的數據。

遊戲:可證明的公平性

遊戲不需要 zkML 來顯示貓咪圖片,但如果是真金白銀的競技遊戲呢?那就另當別論了。

AI 對手

你正在和電腦 AI 玩撲克,你怎麼知道 AI 沒有通過查看你的底牌作弊?你怎麼知道你付費購買的真的是“困難”難度,而不是改了名字的“中等”難度?

zkML:遊戲服務器會證明每個 AI 決策都來自已提交的模型,無法作弊,也無法替換爲較弱的模型,證明是針對每局遊戲生成的,並由客戶端驗證。

Modulus 開發了 RockyBot(一款 AI 格鬥遊戲)和 Leela vs the World(一款鏈上國際象棋遊戲)作爲概念驗證,AI 的行爲是可驗證的,玩家可以確認他們面對的是真正的 AI。

公平匹配

排位賽匹配系統使用機器學習技術來配對玩家,如果算法不透明,陰謀論就會滋生:“他們故意給我匹配差勁的隊友!”“他們在操縱比賽!”

zkML:證明匹配算法運行正確,證明每個玩家都由同一模型評分,這樣一來,那些陰謀論就站不住腳了。

模型市場:機器學習即服務(MLaaS)驗證

你付費購買的是 GPT-4 級別的 API 訪問權限,你怎麼知道你實際獲得的是 GPT-4 而不是改了名稱的 GPT-3.5 呢?

現在:相信供應商。

使用 zkML,每個 API 響應都會附帶一個證明:“此輸出來自具有 Y 參數的模型 X。”如果提供商嘗試使用更便宜的模型,則證明會失效。

這使得競爭激烈的模型市場得以形成,因爲供應商無法在模型層級上作弊!用戶可以驗證服務水平協議(SLA)的合規性,並且定價與已驗證的計算能力掛鉤(您只需爲實際獲得的計算能力付費)。

AI 記憶

ICME Labs 的一個核心用例是嵌入模型,這些模型可以在瀏覽器中運行,目前是 ZKML 的實際應用目標,試想一下,用戶以英語瀏覽源代碼,而消費者卻用日語購買和查詢 - 他們無法進行審覈,因此需要加密信任。

或者租用一段記憶 - 相信我,兄弟,“我的 AI 記憶裏有這個……”分類模型現在就可以用於解決這個信任問題,並創造一個新的 AI 記憶經濟™️。

2025 年還缺少什麼

讓我們坦誠地面對目前還行不通的地方:

在 zkML 中實現 GPT-5 這樣的大型語言模型?不可能:或許可以用 GPT-2 作爲演示(zkPyTorch 已經證明了 Llama-3 的性能,但每個詞元需要 150 秒),真正前沿的大型語言模型推理是可以實現的……但速度會很慢,而且會消耗大量內存。

實時系統:如果您需要 100 毫秒以下的推理速度並提供證明,那麼您只能選擇較小的模型或更直接的分類模型,自動駕駛汽車需要證明每個決策的正確性嗎?目前的 zkML 還無法實現。

訓練方面:我們可以證明推理能力,但無法證明大規模訓練的能力,如果您需要驗證模型是否使用特定數據和特定方法進行訓練,ZKML 目前還無法滿足需求。

複雜架構:注意力機制剛剛成爲可能,專家混合模型?圖神經網絡?擴散模型?這些仍是研究領域。

2026 年 ZKML 的預測

以下是對 2026 年接下來 10 倍解鎖內容的一些基本推測。

硬件浪潮

硅芯片解鎖是公平的。

GPU 加速(已上線):所有主流的 zkML 框架都已支持或正在添加 GPU 支持,EZKL、Lagrange、zkPyTorch、Jolt - 全部都基於 CUDA 運行,但 2025 年的 GPU 支持僅僅是“它能在 GPU 上運行”,而 2026 年將會是“它針對 GPU 進行了優化”。

區別至關重要,目前的實現方式是將 CPU 算法移植到 GPU 上,而下一代實現方式則會圍繞 GPU 原語重新設計算法,大規模並行處理,通過 GPU 內存傳輸數據,內核融合用於生成證明。

預期影響:現有工作負載速度提升 5-10 倍,原本需要 30 秒的模型可能只需 3-5 秒即可完成,這就是“適用於批量處理”和“適用於交互式應用程序”之間的區別。

多機證明(協調層)

最新 zkML:一臺性能強勁的機器即可生成您的證明。

2026 zkML:證明生成在集羣上並行化,拆分電路,分發給多個證明器(多重摺疊),聚合結果。

Lagrange 已經在着手研究這個問題了,Polyhedra 在他們的 zkPyTorch 路線圖中也提到了這一點,相關技術已經存在(遞歸證明、證明聚合、延續),我們的基礎設施層 NovaNet 專注於協作證明器(通過摺疊方案)如何處理這項任務,工程方面則非常困難(工作分配、容錯、成本優化)。

當這項技術投入使用時:將證明通過 10 臺機器同時運行,GPT-2 的運算時間可以從 10 分鐘縮短到 1 分鐘,同時證明 Llama-3 將從“好奇”走向“真正可用”。

證明系統:更優的數學

硬件有所幫助,但更好的算法幫助更大。

域算術

目前大多數零知識證明(ZKML)方案都使用 BN254 或類似的大型域,一些團隊正在探索 Mersenne-31 域以及其他更小的域,這些域的運算速度可能更快,據估計,僅域的切換就能帶來 10 倍的性能提升,基於橢圓曲線的系統繼續受益於稀疏性(例如 Twist 和 Shout)。

基於 Lattice 的零知識證明方案使我們能夠利用這些更小的域,同時還能受益於稀疏性和同態性,Lattice 還支持按比特付費,並且可能具有後量子安全特性,最後一個亮點是 - 可以動態生成公共參數。

重要性:域運算是證明生成的最內層循環,域運算速度提升 10 倍意味着所有證明過程的速度都能提升 10 倍,原本需要 10 秒才能完成證明的模型,現在只需 1 秒即可完成。

Jolt Atlas 已經從中受益 - 以查找爲中心的架構與稀疏性配合良好 - 一些機器學習操作具有很高的稀疏性。

證明累積 / 摺疊方案

图片

ZKTorch 採用了這種方法:不爲每一層生成獨立的證明,而是將多個證明合併到一個累加器中,最終的證明非常小,與模型深度無關。

這是新星 / 超新星 / 中子新星的領域 ⭐💥,遞歸 SNARKs,讓你能夠證明“我證明了 A,然後我證明了 B,然後我證明了 C”,而不會導致證明規模爆炸。

2026 年預測:這將成爲標準,每個 zkML 框架都將添加摺疊功能,ResNet-50 的證明文件大小將從 1.27GB(舊版 Mystique)縮小到小於 100KB(基於摺疊的新系統),由於證明文件大小不再隨序列長度擴展,GPT 類型的模型將變得可行。

Folding 也有助於解決證明器內存不足的問題,你可以在多種設備上運行 ZKML,並選擇與機器規格相匹配的步長。

最後,摺疊還可以用於將零知識(ZK)重新賦予那些不具備隱私保護功能的協議,HyperNova 的論文中有一個很棒的技巧,展示瞭如何做到這一點。

流媒體證明

當前限制:要證明一個生成 100 個令牌的 LLM,你需要先證明令牌 1,然後是令牌 2,再是令牌 3……每次證明都是獨立的,這會導致內存佔用急劇增加,你可以通過摺疊或流式處理來控制內存增長。

目前還處於研究階段,但將於 2026 年發佈,屆時:zkML 中的 LLM 推理將從“在大型機器上證明”變爲“在任何地方證明”。

運算符覆蓋範圍爆炸式增長

請記住:ONNX 有 120 多個運算符,大多數框架只支持 50 個左右。

差距正在迅速縮小,這並非因爲框架們正在逐個實現運算符,而是因爲它們正在構建運算符編譯器和通用的 zkVM 原語,以便大規模地處理大量運算符。

Transformer 基元

注意力機制在 2024 年幾乎無法實現,到 2025 年底,多種框架都支持它們,到 2026 年,它們將得到優化。

專用電路:

  • 縮放點積注意力

  • 多頭注意力

  • 位置編碼

  • 層歸一化(早期 zkML 中的 Transformer 殺手)

結合流式證明,這意味着:基於 Transformer 的模型在 zkML 中成爲一等公民,這不僅是“我們可以緩慢地證明 GPT-2”,而且是“我們可以以合理的成本證明現代 Transformer 架構”。

這將解鎖視覺轉換器、音頻模型、多模態模型,所有支撐現代機器學習的架構,現在都可驗證了。

成本曲線變化導致用例演化

技術改進本身並不重要,重要的是它們能夠帶來什麼。

DeFi 代理:從批處理到實時

2025 年:代理每小時對您的投資組合進行一次再平衡,每次再平衡都會在後臺生成一份證明文件,在下一次交易執行時,之前的證明文件已經準備就緒。

2026 年:代理根據市場狀況實時進行再平衡,證明生成時間爲 1-5 秒,代理以連續循環的方式運行:觀察市場 → 計算決策 → 生成證明 → 執行交易,證明在下一個區塊確認之前即可獲得。

這改變了遊戲規則,您可以構建響應式代理,而不僅僅是定時代理,閃電崩潰保護,MEV 防禦,具有加密保證的自動套利。

醫療保健:從審計日誌到實時驗證

2025 年:醫院進行診斷,模型生成結果,醫院隨後向監管機構提交證明文件,證明文件生成只需幾分鐘,且離線完成。

2026 年:驗證結果的生成速度足夠快,可以在臨牀工作流程中完成,醫生下達檢測醫囑,模型運行,驗證結果並行生成,當醫生審覈結果時,驗證結果已隨結果一同提交。

這實現了:實時審計合規性,即時驗證的保險預授權,以及跨機構工作流程,其中每個步驟都經過驗證後才能開始下一步。

無需信任的代理:從演示到生產

2025 年:代理工作流程可行,但較爲繁瑣,每次代理交互都需要生成證明,耗時數秒到數分鐘,複雜的工作流程運行緩慢。

2026 年:對於簡單模型,證明速度可達亞秒級,對於複雜模型,證明速度可並行化,智能體之間的交互將更加自然流暢,智能體 A 調用智能體 B,等待 0.5 秒進行證明驗證,然後繼續執行,雖然延遲令人煩惱,但比人工操作要好得多🤪。

這纔是無需信任的代理網絡真正能夠擴展規模的時候,不是研究項目,而是生產系統,其中數百個代理相互協作,每個代理都通過加密方式證明自己的工作。

x402 / ERC-8004 的願景成爲現實:代理僱傭代理,用加密貨幣支付,所有這一切都通過證明進行調解。

遊戲:從回合制到即時制

2025 年:zkML 在遊戲中的應用將僅限於回合制場景,例如撲克機器人、國際象棋引擎以及可以容忍每步棋生成 1-5 秒證明的策略遊戲。

2026 年:速度足以滿足某些類型遊戲的實時 AI 需求,例如,格鬥遊戲中 AI 對手的每一個決策都需要經過驗證,以及 RTS 遊戲中,戰略決策(並非單位級別的尋路,而是高層次的戰術)需要經過驗證。

對於第一人稱射擊遊戲或需要反應速度的遊戲機制來說,速度仍然不夠快,但可行的設計空間卻大大擴展了。

模型市場:從利基市場到主流市場

2025 年:驗證 API 響應很酷,但應用範圍有限,只有高價值的應用才值得付出這種額外成本。

2026 年:成本大幅下降,對於任何每次調用收費超過 0.01 美元的 API 來說,驗證將成爲標準流程,模型提供商將根據可驗證性進行差異化競爭,“未經驗證的推理”將成爲入門級服務。

這可以實現:通過密碼學強制執行服務級別協議(SLA),爲人工智能服務提供工作量證明,以及基於已驗證計算曆史的信譽系統。

可驗證的人工智能記憶:創造共享價值

2025 年:我們已經在 2025 年使用 ZKML 來證明有關向量數據庫的嵌入和分類的事情,該用例在 2026 年將實現超大規模擴展。

2026 年:無需信任的共享 AI 內存上線,您的 AI 助手不再擁有單一的內存 - 它將協調多個經過驗證的內存,包括個人內存、公司內存和專業知識。

歸根結底

制定循序漸進的計劃,並偶爾進行革命性的飛躍 - 訂閱即可瞭解這些飛躍!

ZKML 的盛宴已經拉開帷幕 - 我們已經證明了使用零知識證明(ZKP)驗證機器學習是可行的,現在,我們進入了略顯枯燥的階段:工程師和研究人員正努力使其更快、更便宜、更可靠。

在一次活動中,我聽到一位加密貨幣風險投資家說“今年的 ZK 很無聊”!

無聊是好事,無聊意味着它正在變得真實。

图片

作者:Wyatt Benno(Kinic 創始人)

翻譯:Catherine

#KINIC #zkml #ICP生态 #AI

你關心的 IC 內容

技術進展 | 項目信息 | 全球活動

收藏關注 IC 幣安頻道

掌握最新資訊