就在昨晚,DeepSeek 在 Hugging Face 发布了 V3 版本的更新——DeepSeek-V3-0324,模型参数为 6850 亿,代码能力、UI 设计、推理能力等显著提高。
在刚刚结束的 2025 GTC 大会上,黄仁勋对 DeepSeek 给予了高度评价,同时强调,市场之前认为 DeepSeek 的高效模型会降低对英伟达芯片需求的理解是错误的,未来的计算需求只会更多,而不是更少。
DeepSeek 作为算法突破的明星产品,与英伟达的算力供应到底有什么关系,我想先讨论下算力与算法对行业发展的意义。
在 AI 领域,算力的提升为更复杂的算法提供了运行基础,使模型能处理更大量数据、学习更复杂模式;而算法的优化则能更高效地利用算力,提升计算资源的使用效率。
算力与算法的共生关系正重塑 AI 产业格局:
技术路线分化:OpenAI 等公司追求构建超大型算力集群,而 DeepSeek 等则专注算法效率优化,形成不同技术流派。
产业链重构:英伟达通过 CUDA 生态系统成为 AI 算力主导者,云服务商则通过弹性算力服务降低部署门槛。
资源配置调整:企业研发重心在硬件基础设施投资与高效算法研发间寻求平衡。
开源社区崛起:DeepSeek、LLaMA 等开源模型使算法创新与算力优化成果得以共享,加速技术迭代与扩散。
DeepSeek 的爆火绝对与它的技术创新分不开,我将使用通俗的语言解释,使大部分人都看得懂。
DeepSeek 采用了 Transformer+MOE(Mixture of Experts)的组合架构,并引入了多头潜在注意力机制(Multi-Head Latent Attension, MLA)。这种架构像是一个超级团队,其中 Transformer 负责处理常规任务,而 MOE 像是团队中的专家小组,每个专家都有自己的专长领域,当遇到特定问题时,由最擅长的专家来处理,这样可以大大提高模型的效率和准确性。MLA 机制让模型在处理信息时能够更加灵活地关注不同的重要细节,进一步提升了模型的性能。
DeepSeek 提出了 FP8 混合精度训练框架。这个框架像是一个智能的资源调配器,它能够根据训练过程中不同阶段的需求,动态地选择合适的计算精度。在需要高精度计算的时候,它就使用较高的精度,以保证模型的准确性;而在可以接受较低精度的时候,它就降低精度,从而节省计算资源,提高训练速度,减少内存占用。
在推理阶段,DeepSeek 引入了多 Token 预测(Multi-token Prediction, MTP)技术。传统的推理方法是一步步来,每一步只预测一个 Token。而 MTP 技术能够一次性预测多个 Token,从而大大加快了推理的速度,同时也降低了推理的成本。
DeepSeek 的新强化学习算法 GRPO(Generalized Reward-Penalized Optimization)优化了模型训练过程。强化学习像是给模型配备了一个教练,教练通过奖励和惩罚来引导模型学习更好的行为。传统的强化学习算法在这个过程中可能会消耗大量的计算资源,而 DeepSeek 的新算法则更加高效,它能够在保证模型性能提升的同时,减少不必要的计算,从而实现性能和成本的平衡。
这些创新不是孤立的技术点,而是形成了完整的技术体系,从训练到推理全链条降低算力需求。普通消费级显卡现在也能运行强大的 AI 模型,大幅降低了 AI 应用的门槛,使更多开发者和企业能够参与到 AI 创新中来。
很多人认为 DeepSeek 绕过了 Cuda 层,从而摆脱了对英伟达的依赖。实际上,DeepSeek 直接通过英伟达的 PTX(Parallel Thread Execution)层进行算法优化。PTX 是一种介于高级 CUDA 代码和实际 GPU 指令之间的中间表示语言,通过操作这一层级,DeepSeek 能够实现更精细的性能调优。
这对英伟达的影响是双面的,一方面,DeepSeek 其实与英伟达的硬件以及 Cuda 生态绑定更深了,AI 应用门槛的降低又可能扩大整体市场规模;另一方面,DeepSeek 的算法优化可能改变市场对高端芯片的需求结构,一些原本需要 H100 等 GPU 才能运行的 AI 模型,现在可能在 A100 甚至消费级显卡上就能高效运行。
DeepSeek 的算法优化为中国 AI 产业提供了技术突围路径。在高端芯片受限背景下,"软件补硬件"的思路减轻了对顶尖进口芯片的依赖。
在上游,高效算法降低了算力需求压力,使算力服务商能通过软件优化延长硬件使用周期,提高投资回报率。 在下游,优化后的开源模型降低了 AI 应用开发门槛。众多中小企业无需大量算力资源,也能基于 DeepSeek 模型开发竞争力应用,将催生更多垂直领域 AI 解决方案的出现。
去中心化 AI Infra
DeepSeek 的算法优化为 Web3 AI 基础设施提供了新的动力,创新的架构、高效的算法和较低的算力需求,使得去中心化的 AI 推理成为可能。MoE 架构天然适合分布式部署,不同节点可以持有不同的专家网络,无需单一节点存储完整模型,这显著降低了单节点的存储和计算要求,从而提高模型的灵活性和效率。
FP8 训练框架则进一步降低了对高端计算资源的需求,使得更多的计算资源可以加入到节点网络中。这不仅降低了参与去中心化 AI 计算的门槛,还提高了整个网络的计算能力和效率。
Multi-Agent System
智能交易策略优化:通过实时市场数据分析 agent、短期价格波动预测 agent、链上交易执行 agent、交易结果监督 agent 等的协同运行,帮助用户获取更高的收益。
智能合约的自动化执行:智能合约监控 agent、智能合约执行 agent、执行结果监督 agent 等协同运行,实现更复杂的业务逻辑自动化。
个性化投资组合管理:AI 根据用户的风险偏好、投资目标和财务状况,帮助用户实时寻找最佳的质押或流动性提供机会。
"我们只能看到很短的未来,但足以发现那里有很多工作要做。"DeepSeek 正是在算力约束下,通过算法创新寻找突破,为中国 AI 产业开辟了差异化发展路径。 降低应用门槛、推动 Web3 与 AI 融合、减轻对高端芯片依赖、赋能金融创新,这些影响正在重塑数字经济格局。未来 AI 发展不再仅是算力竞赛,而是算力与算法协同优化的竞赛。在这条新赛道上,DeepSeek 等创新者正在用中国智慧重新定义游戏规则。
(X:@BadBot27)
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。