هل وجه جنسن هوانج الإشارة؟ ارتفع SN3 بمقدار 5 أضعاف في الشهر، فماذا فعل بالضبط؟

2026年3月20日,在All-In创投播客中出现了一段不同寻常的对话。

风险投资大佬Chamath Palihapitiya将话题递给英伟达CEO黄仁勋,称Bittensor上有一个项目“完成了一项相当疯狂的技术成就”,用分布式算力在互联网上训练了一个大型语言模型,整个过程完全去中心化,没有任何中心化的数据中心参与。

黄仁勋没有回避。他将此比作“现代版的Folding@home”,那个在2000年代让普通用户贡献闲置算力、共同对抗蛋白质折叠难题的分布式项目。

在此之前的4天前,即3月16日,Anthropic联合创始人Jack Clark在发布一份AI研究进展报告时,也用大量篇幅重点介绍和引用了这项突破:Bittensor生态子网Templar(SN3)完成了720亿参数大模型(Covenant 72B)的分布式训练,模型性能与Meta在2023年发布的LLaMA-2相当。

Jack Clark将这一章节命名为“通过分布式训练挑战AI政治经济学”,并在分析中强调,这是一项值得持续追踪的技术——他能想象未来:设备端AI大量采用去中心化训练产出的模型,而云端AI则继续运行专有大模型。

市场反应略显滞后但极为剧烈:SN3过去一个月涨逾440%,过去两周涨逾340%,市值达到1.3亿美元。子网的爆发式叙事,直接带动TAO的购买压力。因此,TAO快速上涨,一度达到377美元,过去一个月翻倍,FDV(完全稀释市值)约为75亿美元。

问题来了:SN3到底做了什么?为何会被推至聚光灯下?分布式训练和去中心化AI的价值叙事又将如何演变?

那个72B的模型

要回答这个问题,首先要看清SN3的成绩单。

2026年3月10日,Covenant AI团队在arXiv上发布技术报告,正式宣布Covenant-72B完成训练。这是一个720亿参数的大型语言模型,超过70个独立节点(每轮约20个节点同步,每个节点配备8张B200显卡),在约1.1万亿tokens的语料上完成了720亿参数模型的预训练。

Templar提供了在基准测试方面的一些数据,当然,对比的基准模型是Meta在2023年发布的LLaMA-2-70B。正如Anthropic联合创始人Jack Clark所说,Covenant-72B在2026年可能有些过时。Covenant-72B在MMLU上的得分为67.1,大致对应Meta2023年发布的LLaMA-2-70B(65.6分)。

而2026年的前沿模型——无论是GPT系列、Claude还是Gemini——早已在数十万块GPU上完成了参数量远超1000亿的训练,推理、代码、数学能力的差距是数量级而非百分比的问题。这个现实差距不应被市场情绪所淹没。

但换算到“用开放互联网上的分布式算力训练出来”这个前提下,意义就完全不同了。

做个比较:同为去中心化训练的INTELLECT-1(Prime Intellect团队出品,100亿参数)在MMLU上的得分为32.7;另一个在白名单参与者中进行的分布式训练项目Psyche Consilience(400亿参数)得分24.2。Covenant-72B以72B规模、67.1的MMLU分数,在去中心化训练赛道中是个显眼的数字。

更关键的是,这次训练是“无需许可”的。任何人都可以接入成为参与节点,无需事先审核,无需白名单。超过70个独立节点参与模型更新,从全球各地连接贡献算力。

黄仁勋说了什么,没说什么

还原那场播客对话的细节,有助于校正外界对这次“背书”的解读。

Chamath Palihapitiya在对话中将Bittensor的技术成就展现给黄仁勋,并描述为用分布式算力训练了一个Llama模型,过程“完全分布式,同时保持状态”。黄仁勋回应将其比作“现代版的Folding@home”,并展开讨论了开源与专有模型并行共存的必要性。

值得注意的是,黄仁勋没有直接提到Bittensor的代币或任何投资含义,也没有进一步讨论去中心化AI训练。

理解Bittensor子网和SN3

要理解SN3的突破,首先需明确Bittensor及其子网的运作逻辑。简单来说,Bittensor可看作是一条AI公链和平台,而每个子网就相当于一条独立的“AI生产流水线”,各自明确核心任务、设计激励机制,协同构建去中心化AI生态。

其运作流程清晰且去中心化:子网所有者定义子网目标并编写激励模型;矿工在子网中提供算力、完成AI相关任务(如推理、训练、存储等);验证者对矿工的贡献进行打分,并将评分上传至Bittensor共识层;最终,Bittensor的Yuma共识算法会根据各子网累积的奖励,向子网参与者分配相应收益。

目前Bittensor上有128个子网,涵盖推理、无服务器AI云服务、图像、数据标注、强化学习、存储、计算等多类AI任务。

而SN3就是其中的一个子网。它不做应用层套壳,不租用现成的大模型API,而是直接瞄准了整个AI产业链中最昂贵、最封闭的核心环节之一:大模型预训练。

SN3希望利用Bittensor网络协调异构计算资源的分布式训练,通过激励式分布式大模型训练,证明无需昂贵的中心化超级计算机集群,同样可以训练出强大的基础模型。核心吸引力在于“平权”——打破中心化训练的资源垄断,让普通个人或中小机构也能参与大模型训练,同时借助分布式算力降低训练成本。

推动SN3发展的核心力量是Templar,其背后的研究团队为Covenant Labs。该团队还同时运营着另外两个子网:Basilica(SN39,专注计算服务)和Grail(SN81,专注RL后训练与模型评估)。三者形成垂直整合,完整覆盖大模型从预训练到对齐优化的全流程,构建去中心化大模型训练的完整生态。

具体而言,矿工贡献计算资源,将梯度更新(模型参数的调整方向和力度)上传至网络;验证者评估每个矿工的贡献质量,按照误差改善幅度给予链上评分。结果决定奖励权重,自动分配,无需信任任何第三方。

激励机制的关键在于,奖励直接挂钩“你的贡献让模型变好了多少”,而非单纯的算力出勤。这从根本上解决了去中心化场景中最难的问题:如何防止矿工摸鱼。

那么Covenant-72B如何解决通信效率和激励相容问题?

让几十个互不信任、硬件各异、网络质量参差不齐的节点协同训练同一模型,面临两个挑战:一是通信效率,标准的分布式训练方案要求节点间高带宽、低延迟的互联;二是激励相容,如何防止恶意节点提交错误梯度?如何确保每个参与者都在老老实实训练,而不是抄袭他人的结果?

SN3用两个核心组件解决了这两个问题:SparseLoCo和Gauntlet。

SparseLoCo解决通信效率问题。传统的分布式训练每一步都要同步完整梯度,数据量巨大。SparseLoCo采用的方案是:每个节点在本地跑完30步的内部优化(AdamW),然后将产生的“伪梯度”压缩后再上传给其他节点。压缩方式包括Top-k稀疏化(只保留最关键的梯度分量)、误差反馈(将被丢弃的部分存起来累积到下一轮)、以及2位量化。最终压缩比超过146倍。

换句话说,原本需要传输100MB的内容,现在不到1MB就够了。

这让系统在普通互联网(上行110Mbps,下行500Mbps)的带宽限制下,将计算利用率维持在约94.5%——20个节点、每节点8块B200、每轮通信耗时仅70秒。

Gauntlet解决激励相容问题。它运行在Bittensor区块链(子网3)上,负责验证每个节点提交的伪梯度质量。具体方式是:用一小批数据测试“用上这个节点的梯度后,模型损失降低了多少”,结果称为LossScore。同时,系统还检查节点是否在用自己分配到的数据训练——如果一个节点在随机数据上的损失改善比在自己分配数据上还好,会被打负分。

最终,每轮训练只选取评分最高的节点的梯度参与聚合,其余节点被淘汰出这一轮。超出的参与者会随时补位,使系统保持稳健。整个训练过程中,平均每轮有16.9个节点的梯度被纳入聚合,累计参与过的唯一节点ID超过70个。

去中心化AI的价值叙事,正在发生根本性转变

从技术和行业角度看,Covenant-72B代表的方向具有几个重要意义。

第一,打破了“分布式训练只适合小模型”的预设。虽然与最前沿模型仍有差距,但证明了这个方向的可扩展性。

第二,无许可参与是真实可行的。这一点被低估了。此前的分布式训练项目依赖白名单——只有经过审核的参与者才能贡献算力。SN3这次训练中,任何拥有足够算力的人都可以接入,验证机制负责过滤恶意贡献。这是向“真正去中心化”迈出的实质性一步。

第三,Bittensor的dTAO机制使子网价值的市场发现成为可能。dTAO允许每个子网发行自己的Alpha代币,通过AMM机制让市场决定哪些子网获得更多TAO排放。这为像SN3这样产出具体成果的子网提供了一套粗糙但有效的价值捕获机制。当然,这套机制也容易被叙事和情绪干扰,LLM训练成果的质量很难被普通市场参与者独立评估。

第四,去中心化AI训练的政治经济意义。Jack Clark在Import AI中将此问题提升到“谁拥有AI的未来”层面。目前,前沿模型训练被少数拥有大规模数据中心的机构垄断,这不仅是商业问题,也是权力结构问题。若分布式训练能持续取得技术突破,有望在某些模型(如特定领域的小规模前沿模型)上形成真正去中心化的开发生态。当然,这一前景目前还远。

总结:一个真正的里程碑,以及一系列真实的问题

黄仁勋表示,这像“现代版的Folding@home”。Folding@home在分子模拟领域做出了实际贡献,但没有威胁到大型制药公司的核心研发地位。这个比喻非常贴切。

SN3验证了协议,证明了分布式训练的可行性。但从技术和行业角度看,这份成绩单背后,还存在一些少有人愿意深入讨论的问题:

  • MMLU本身在学界争议较大,公开基准题目和答案存在泄露训练集的风险。更值得关注的是,论文所对标的LLaMA-2-70B和LLM360 K2都是2023-2024年的老模型,而在问及Grok、豆包时,这些模型的得分被归为中下游或入门级水平。若用更动态或抗污染的基准,结论或许会更真实。

  • 决定模型能力上限的高质量数据——对话、代码、数学推导、科学文献——大概率掌握在各大公司、出版机构和学术数据库手中。算力民主化了,数据端仍是寡头结构,这个矛盾尚未被充分讨论。

  • 关于安全性,无许可参与意味着你不知道那70多个节点背后是谁,也不知道他们用什么数据训练。Gauntlet能过滤明显异常的梯度,但无法防范微妙的数据投毒——如果某个节点系统性地在某类有害内容上多训练几轮,可能会产生偏移,影响模型行为。

  • Covenant-72B以Apache 2.0开源,不使用SN3代币。持有SN3代币,分享的是未来持续产出模型的排放收益,而非模型使用的直接收益。这个价值链依赖于持续的训练产出和网络排放机制的健康运转。如果未来训练停滞或成果不达预期,代币估值就会动摇。

列出这些问题,并非否定Covenant-72B的意义。它证明了曾被认为不可能的事情可以实现,这一事实不会消失。但“做到了”与“意味着什么”是两回事。

过去一个月,SN3代币上涨了440%。这中间的距离,可能并非纯粹炒作,而是叙事速度快于现实。未来,这段距离会被市场逐步填平,还是被市场修正消化,取决于Covenant AI团队接下来交出的实际成果。

值得关注的是,Grayscale已于2026年1月提交TAO ETF申请,显示机构资本对这条赛道的兴趣。此外,2025年12月,Bittensor将每日TAO排放减半,供给端的结构性收紧也在酝酿中。

参考链接:

TAO‎-2.25%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.29Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.32Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.33Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.33Kعدد الحائزين:1
    0.00%
  • تثبيت