当预训练成为巨头堆砌算力的资本游戏,后训练则是比拼框架效率的主战场。分布式 AI 实验室 Gradient 今日正式发布 Echo-2 分布式强化学习框架。通过在架构底层实现 Actor 与 Learner 的彻底解耦,Echo-2 成功将 30B 模型的强化学习(RL)训练成本从 4,500 美元大幅压降至 425 美元,训练时长缩短至 9.5 小时。这标志着分布式 AI 架构在异构计算领域取得关键性范式转移,验证了去中心化 RL 的工程可行性与巨大潜力,将 AI 研究的迭代速度提升 10 倍以上。
从 OpenAI o1 到 DeepSeek-R1,强化学习(RL)已取代单纯的数据堆砌,成为赋予大模型推理与自我验证能力的核心引擎。然而,RL 训练极其昂贵的试错成本,正在成为提升 AI 研究迭代速度的一大阻碍。当前,对一个 30B 规模的模型进行一次后训练往往需要数千美元,而对 600B 级别的大模型进行一次完整的后训练,成本则至少在 10 万美元以上。更重要的是,在真实的研究过程中,几十到上百次不同规模的后训练是非常常见的。这迫使在研究团队中需要在探索与预算之间做抉择。
Gradient 今日正式推出 Echo-2 框架(论文编号 arXiv:2602.02192),旨在通过底层架构的重构,打破这一僵局,解锁 AI 缩放定律的第二曲线。研究表明,Echo-2 能将模型后训练成本降低 10 倍,让研究团队从容试错,在同等预算下拥有超过 10 倍的科研效率。
为了验证 Echo-2 的极限性能,我们在 DAPO-17k 数据集上进行了 Qwen3-30B-A3B 模型的训练基准测试,并与主流云服务商进行了严格对比。
Echo-2 配置:

实测数据显示,Echo-2 的高效率训练对模型收敛性并无影响。
并且 Echo-2 的奖励曲线与价格昂贵的 Fireworks 在统计学上完全重合。这意味着,Echo-2 在利用不可靠、碎片化算力的同时,实现了零性能损耗的企业级收敛效果。
Echo-2 通过解决四大核心工程难题,将分布式 RL 从理论变为生产力工具:
为了验证架构的普适性,Gradient 团队进行了更广泛的内部压力测试:
Echo-2 证明了科研速度不再受限于预算。当单次训练成本从 $4,490 降至 $425,意味着在同样的预算下,研究者可以进行 10 次实验。
基于 Echo-2 框架,Gradient 也还将推出首个 RLaaS(RL 即服务)平台:Logits。
Logits 通过抽象复杂的分布式系统细节,让研究者和企业无需从零搭建基础设施,即可直接调用 Echo-2 架构。值得注意的是,Echo-2 与 Gradient 此前开源的分布式推理引擎 Parallax 深度协同,Logits 平台将直接调用 Parallax 作为 RL 的 Actor,真正实现用模型推理反哺模型进化的闭环生态。
目前,Logits 已面向高校学生和研究人员开放 Early Access 预约。
🔗 阅读论文:https://arxiv.org/pdf/2602.02192
🔗 Logits Early Access:https://logits.dev
Gradient 是一家致力于构建分布式基础设施的 AI 实验室,专注于前沿大模型的分布式训练、服务与部署。Gradient 获得了顶级投资机构支持,正在通过开放高效的基础设施加速未来智能时代的到来。
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
