Theta EdgeCloud發布首個區塊鏈驗證的LLM服務

首頁新聞* Theta Labs 在 EdgeCloud 上推出了一項 LLM (大型語言模型)推理服務,具有分布式、基於區塊鏈的可驗證性。

  • 此更新通過整合區塊鏈上的公共隨機性,實現了獨立驗證和防篡改的AI聊天機器人輸出。
  • EdgeCloud 現在是第一個爲企業、學術界和其他用戶提供無信任 LLM 推理的平台。
  • 開源引擎利用了DeepSeek V3/R1模型,並通過確定性和可驗證的隨機過程的結合使結果可重復。
  • 結果包括元數據,例如區塊鏈的隨機種子,允許任何第三方進行驗證並支持未來的鏈上證明。 Theta Labs 宣布推出了其 EdgeCloud 平台的新大型語言模型 (LLM) 推理功能。該服務旨在爲 AI 聊天機器人和代理輸出帶來分布式、區塊鏈支持的可驗證性。此舉旨在使 LLM 結果對各個行業的用戶可信賴且可以獨立確認。
  • 廣告 - 根據Theta Labs,此次更新使EdgeCloud成爲第一個爲加密原生和傳統雲用戶提供“無信任”LLM推理的平台。該系統結合了開源AI模型、去中心化計算和區塊鏈技術,以確保AI生成輸出的完整性。對於企業和學術界的敏感應用,該公司表示,EdgeCloud目前是唯一提供這種輸出驗證級別的解決方案。

現代人工智能系統通常依賴於LM,但如今大多數服務依賴於集中式提供商或安全硬件,這些硬件可能難以審核,文章解釋道。新的方法採用DeepSeek V3/R1,這是一個開源替代品,旨在取代專有LM,使整個過程能夠透明驗證。“這一突破使社區能夠擺脫不透明的AI API,轉向透明、可檢查的推理工作流程,” Theta Labs 說。

新系統採用雙重方法。首先,模型以確定性方式計算下一個令牌的概率,任何使用相同開源工具的人都可以對此進行審查。其次,該服務集成了一個公開可驗證的隨機種子——來自區塊鏈系統,如以太坊的RanDAO——以確定選擇哪個令牌,使每次推理可重復且可審計。這種方法確保用戶和服務提供商都無法更改結果。

爲此,Theta Labs 提升了流行的 vLLM 推理引擎,並將其作爲公共 Docker 容器發布,現已在 DockerHub 上可用。該公司還在其“DeepSeek R1 / Distill-Qwen-7B”模型模板中集成了該功能,位於 Theta EdgeCloud 專用模型啓動平台上。

每個模型結果現在都包括驗證元數據,其中包含來自Theta區塊鏈的公共隨機性細節。對於更高的安全需求,公司建議將提示、分布和結果等元數據發布在鏈上,以便由去中心化的見證者進行認證。

Theta Labs 預計該系統將在日常任務和商業決策中越來越多地使用 AI 代理方面發揮關鍵作用。通過防篡改的 LLM 推理,用戶可以獨立確認 AI 生成的響應的準確性。該公司強調這是在不斷擴大的 AI 生態系統中增加透明度和安全性的重要一步。

  • 廣告 - #### 之前的文章:
  • MicroStrategy再次稀釋,通過股票出售籌集了5.2億美元
  • 英國養老金基金的3%比特幣投資在不到一年內獲得60%的回報
  • 威脅行爲者使用 Vercel v0 AI 工具創建釣魚網站
  • Webus獲得1億美元XRP股權融資,Ripple在蘇黎世推出廣告
  • 標普500指數將通過Centrifuge作爲代幣化基金提供
  • 廣告 -
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)