CT 睡在2025年最大去中心化AI論文上


Jensen 上《All-In》,CT 猿入 TAO
但真正的工作已經完成
去中心化AI訓練的突破已在9個月前發生
在2025年6月,@0G_labs 在 arXiv 發布了一篇名為 DiLoCoX 的論文
一個在標準1 Gbps網路下,跨越20個去中心化節點訓練107B參數模型的框架
結果:
每秒3,728個tokens vs 10.4的AllReduce
通信效率提升357倍
框架驗證,但這是唯一在此效率水平上的公開基準
幾乎沒有人報導
- Bittensor的Covenant-72B是一個訓練模型
- DiLoCoX是一個用於在去中心化基礎設施上訓練任何模型的框架,完全不同的類別
背後是一個完整堆疊:計算、存儲、去中心化身份(DA)和鏈,沒有其他項目能同時涵蓋這四層
Jensen 剛剛驗證了這個論點,0G Labs 一年前已經證明
4月1日,他們將在 EthCC Cannes 發表演講,下一章即將來臨
TAO-6.85%
0G-3.98%
查看原文
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言