📊 Gate Wallet BountyDrop 上的 Mantle 生態月正在火熱進行中!
目前進展:
🔹 MOMO.FUN – 5,573 位參與者
🔹 Symbiosis – 2,406
🔹 HyperPlay – 1,914
🔹 Vertex – 800
💰 總計 $12,000 的 $MNT 獎勵等你來瓜分!
距離活動結束還有 25 天——不要錯過:
https://gateio.onelink.me/DmA6/web3
#GateWallet # #GateBountyDrop# #Mantle # #Airdrop # #Web3#
融資千萬美元的 OpenLedger 如何重塑數據價值分配?
撰文:Haotian
數據標注這門「苦活累活」,正在悄悄變成香餑餑?這個由 Polychain 領投,獲得超過 1,120 萬美元融資的 @OpenledgerHQ,用 PoA+infini-gram 的獨特機制,瞄準的正是「數據價值分配」這個被長期忽視的痛點。來,從技術視角科普下:
1)說實話,當前 AI 行業最大的「原罪」就是數據價值分配的不公。OpenLedger 的 PoA(貢獻證明)要做的,就是給數據貢獻建立一套「版權追蹤系統」。
具體而言:數據貢獻者將內容上傳到特定領域的 DataNets,每個數據點都會與貢獻者元數據和內容哈希一起被永久記錄。
當模型基於這些數據集訓練後,歸因過程會在推理階段進行也就是模型生成輸出的時刻。PoA 通過分析匹配範圍或影響分數來追蹤哪些數據點影響了該輸出,這些記錄決定了每個貢獻者數據的比例影響。
當模型通過推理產生費用時,PoA 確保利潤根據每個貢獻者的影響準確分配——創建了一個透明、公平且鏈上的獎勵機制。
換句話說,PoA 解決的是數據經濟學的根本矛盾。過去的邏輯很簡單粗暴——AI 公司免費獲取海量數據,然後靠模型商業化賺得盆滿鉢滿,數據貢獻者卻什麼都拿不到。但 PoA 通過技術手段實現了「數據私有化」,讓每個數據點都能產生明確的經濟價值。
我覺得,這種從「白嫖模式」到「按勞分配」的轉換機制一旦跑通,數據貢獻的激勵邏輯就完全變了。
而且,PoA 採用了分層策略來解決不同規模模型的歸因問題:幾百萬參數的小模型,可以通過分析模型影響函數來估算每個數據點的影響程度,計算量還能勉強承受,而中大型參數模型用這種方法在計算上變得不可行且低效。這時候就必須祭出 Infini-gram 這個大殺器了。
2)問題來了,何爲 infini-gram 技術?它要解決的問題聽起來就很變態:在中大型參數的黑盒模型中,精確追蹤每個輸出 Token 的數據來源。
傳統歸因方法主要靠分析模型影響函數,但在大模型面前基本歇菜。原因很簡單:模型越大,內部計算越復雜,分析成本就指數級增長,在計算上變得不可行且低效。這在商業應用中完全不現實。
Infini-gram 完全換了個思路:既然模型內部太復雜,那就直接在原始數據中找匹配。它基於後綴數組構建索引,用動態選擇的最長匹配後綴替代傳統的固定窗口 n-gram。簡單理解,就是當模型輸出某個序列時,Infini-gram 會爲每個 Token 上下文識別訓練數據中最長的精確匹配。
這樣一來帶來的性能數據着實很驚豔,1.4 萬億 Token 數據集,查詢只需 20 毫秒,存儲每 Token 僅 7 字節。更關鍵的是無需分析模型內部結構,無需復雜計算,就能精確歸因。對那些視模型爲商業機密的 AI 公司來說,這簡直是量身定制的解決方案。
要知道,市面上的數據歸因方案要麼效率低下,要麼精度不夠,要麼需要訪問模型內部。Infini-gram 算是在這三個維度都找到了平衡點,
3)除此之外,我感覺 OpenLedger 提出的 dataNets 鏈上數據集概念特別新潮。不同於傳統數據交易的一錘子買賣,DataNets 讓數據貢獻者可持續享有數據被使用時在推理中的收益分成。
過去數據標注是苦差事,收益微薄且一次性。現在變成了持續收益的資產,激勵邏輯完全不同。
當大部分 AI+Crypto 項目還在做算力租賃、模型訓練這些相對成熟的方向時,OpenLedger 選擇了數據歸因這塊最硬的骨頭。這套技術棧可能會重新定義 AI 數據的供給端。
畢竟在數據質量爲王的時代,誰能解決數據價值分配問題,誰就能吸引到最優質的數據資源。
以上。
總的來說,OpenLedgerPoA + Infini-gram 的組合不僅解決了技術難題,更重要的是爲整個行業提供了全新的價值分配邏輯。
在算力軍備賽逐漸降溫、數據質量競爭愈發激烈的當下,這類技術路線肯定不會是孤品。這個賽道會出現多種方案並行競爭的局面——有的專注歸因精度,有的主打成本效率,有的則在易用性上做文章。各自都在探索數據價值分配的最優解。
最終哪家才能跑出來,說到底還是要看能不能真正吸引到足夠多的數據提供者和開發者。