摘要
【近期算力应用突破】
9 月 5 日,特斯拉 AI 团队发布产品路线图,推出新版本 12.5.2 并计划在 2025 年第一季度在中国和欧洲推出完全自动驾驶(FSD),但仍有待监管批准。消息公布后特斯拉股价当天涨幅达到 4.9%,我们认为 FSD 的发展满足了市场部分对于 AI 下游产品的期待,对 26 年及未来算力应用有借鉴意义:
• 通用大模型面临升级周期长、投资开支较大、专业匹配壁垒高的难点:目前市场仍在担心算力基础设施投资高速增长的背景下,下游是否能诞生“AI 爆款应用”支撑算力投资回报率。目前较为常见的通用大模型在满足市场需求上具有两大问题:1)垂类行业专业性和门槛较高。解决专业领域需求需要具备较高的数据质量、覆盖度,涉及到复杂的推理、逻辑以及高精度的预测能力,通用大模型暂时难以具备。2)较高的训练成本影响通用大模型推出进度。据 semianalysis 报道,GPT4 参数已达 1.8 万亿,一次训练成本 6300 万美元。高昂的训练成本使得 GPT4 问世一年后,全球 AI 爆款尚未诞生。尽管如此,市场仍然对大模型的迭代翘首以盼,同时,也选择在垂类应用上“两条腿走路”,加速商业闭环落地。
• FSD 迭代稳步推进,下游客户反映较好:自 2016 年以来,马斯克一直在探索特斯拉的 FSD 自动驾驶方案。2024 年,特斯拉 FSD V12 上线并在北美大规模推送。FSD V12 自动驾驶升级为从感知到车辆控制的“端到端”神经网络。2024 年 9 月 FSD 发布最新的 12.5.2 版本,其参数是 12.4 的 5 倍,合并了高速公路和城市技术栈,驾驶流畅度进一步提升。目前下游客户反映较好,据特斯拉软件追踪网站 TeslaFi 统计,截至 4 月 26 日,在其付费用户登记的 19759 辆特斯拉车辆中,FSD V12.3.4 版本安装量为 6149 辆,普及率达到 31.1%。
• 垂类大模型快速发展,与通用大模型相互补充:我们认为通用大模型短期内还不是解决一切问题的“灵丹妙药”,汽车、医疗、金融等专业领域的问题仍然需要垂类大模型借助定制化的数据、任务加以训练。事实上除 FSD 外我们也看到了近期 Polaris、FinLLM、Corti.ai 等一系列各行各业的垂类模型获得关注。但这并不意味着通用大模型将被垂类大模型淘汰,广泛的推理、生成需求使得高精度通用大模型仍有广阔天地,据 The information 报道,OpenAI 计划在秋天推出“草莓”模型以解决数学推理问题。我们认为垂类与通用对应的下游需求有所不同,随着市场对垂类应用关注度增加,两者有望相互补充,同频共振,丰富下游 AI 产品矩阵,提高上游算力基础设施投资回报率。
【应用变化对算力投资的影响】
垂类大模型在发展过程中形成了预训练与微调两种训练方式。随着对垂类大模型的研究逐步深入,我们看到从业者逐步放弃微调选择预训练,为算力投资带来了边际增量,这是因为微调生成的垂类模型容易遇到幻觉、数据量较小、不具备等问题,从而给出错误的解决方案。因此垂类行业参与者纷纷重金投资各自大模型,底层参数量庞大,以 FSD 为例,截至 24Q1,特斯拉自建超算中心 AI 算力约 35000 块英伟达 H100 等效算力以满足自动驾驶训练需要。其他玩家诸如医疗保健公司 Hippocratic、人工智能金融科技公司 Aveni.ai 近期也纷纷融资以扩大底层模型参数量,优化生成结果,更好为客户服务。因此我们认为算力应用从通用向通用、垂类相互补充改变并不会动摇算力基础设施投资的重要性,下游 AI 爆款应用的诞生仍然需要高额 Capex 投入。基于此我们仍然坚定看好以 AI 算力为主的方向,重视相关云厂商光模块供应商、交换机供应商等。
建议关注:
算力——
光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。铜链接:沃尔核材、精达股份。算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。液冷:英维克、申菱环境、高澜股份。边缘算力承载平台:美格智能、广和通、移远通信。卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。
数据要素——
运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。
风险提示:AI 发展不及预期,算力需求不及预期,市场竞争风险。
1.投资策略:26 年 AI 算力应用初窥
本周建议关注:
算力——
光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。
铜链接:沃尔核材、精达股份。
算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。
液冷:英维克、申菱环境、高澜股份。
边缘算力承载平台:美格智能、广和通、移远通信。
卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。
数据要素——
运营商:中国电信、中国移动、中国联通。
数据可视化:浩瀚深度、恒为科技、中新赛克。
本周观点变化:
本周英伟达股价大跌,累计一周连续下降 13.9%,周二出现明显跌幅,跌幅达到 9.5%。原因主要还是来自宏观交易因素,美国 PMI 数值低于预期、日元再次释放加息信号都对整体市场情绪具有负面影响,使得以英伟达为代表的 AI 巨头率先受损。另外备受期待的 Blackwell 芯片存在交付问题以及投资者对 AI 投资趋于谨慎等因素进一步推升了市场对于英伟达的担忧。同时博通下跌幅度亦达到 15.86%,原因在于该季度财报显示净利润亏损较多,主要因收购 VMware 导致裁员赔偿等因素。但从长期来看,北美 CSP 算力投资仍维持在高位,光模块供不应求的格局没有改变,国内光模块厂商竞争优势较为明显。因此我们坚定看好以 AI 算力为主的方向,重视相关云厂商光模块供应商、交换机供应商等。
2.行情回顾:通信板块下跌,区块链表现最优
本周(2024 年 9 月 2 日 -2024 年 9 月 6 日)上证综指收于 2765.81 点。各行情指标从好到坏依次为:万得全 A>中小板综>万得全 A( 除金融,石油石化 )>上证综指>沪深 300>创业板综。通信板块下跌,表现强于上证综指。
从细分行业指数看,区块链、物联网上涨 1.6%、0.4%,运营商、云计算、通信导航、量子通信分别下跌 0.65%、0.66%、1.4%、1.7%,表现优于通信行业平均水平;通信设备、移动互联、光通信分别下跌 2.7%、3.0%、6.3%,表现劣于通信行业平均水平。
本周,受益固态电池概念,南都电源上涨 66.93%,领涨版块。受益 IPv6 概念,*ST 鹏博上涨 27.52%;受益网络安全概念,飞天诚信上涨 26.86%;受益通信物联网设备概念,恒宝股份上涨 21.29%;受益智慧城市概念,天源迪科上涨 20.33%。
3.周专题:26 年 AI 算力应用初窥
【近期算力应用突破】
9 月 5 日,特斯拉 AI 团队发布产品路线图,推出新版本 12.5.2 并计划在 2025 年第一季度在中国和欧洲推出完全自动驾驶(FSD),但仍有待监管批准。消息公布后特斯拉股价当天涨幅达到 4.9%,我们认为 FSD 的发展满足了市场部分对于 AI 下游产品的期待,对 26 年及未来算力应用有借鉴意义:
• 通用大模型面临升级周期长、投资开支较大、专业匹配壁垒高的难点:目前市场仍在担心算力基础设施投资高速增长的背景下,下游是否能诞生“AI 爆款应用”支撑算力投资回报率。目前较为常见的通用大模型在满足市场需求上具有两大问题:1)垂类行业专业性和门槛较高。解决专业领域需求需要具备较高的数据质量、覆盖度,涉及到复杂的推理、逻辑以及高精度的预测能力,通用大模型暂时难以具备。2)较高的训练成本影响通用大模型推出进度。据 semianalysis 报道,GPT4 参数已达 1.8 万亿,一次训练成本 6300 万美元。高昂的训练成本使得 GPT4 问世一年后,全球 AI 爆款尚未诞生。尽管如此,市场仍然对大模型的迭代翘首以盼,同时,也选择在垂类应用上“两条腿走路”,加速商业闭环落地。
• FSD 迭代稳步推进,下游客户反映较好:自 2016 年以来,马斯克一直在探索特斯拉的 FSD 自动驾驶方案。2024 年,特斯拉 FSD V12 上线并在北美大规模推送。FSD V12 自动驾驶升级为从感知到车辆控制的“端到端”神经网络。2024 年 9 月 FSD 发布最新的 12.5.2 版本,其参数是 12.4 的 5 倍,合并了高速公路和城市技术栈,驾驶流畅度进一步提升。目前下游客户反映较好,据特斯拉软件追踪网站 TeslaFi 统计,截至 4 月 26 日,在其付费用户登记的 19759 辆特斯拉车辆中,FSD V12.3.4 版本安装量为 6149 辆,普及率达到 31.1%。
• 垂类大模型快速发展,与通用大模型相互补充:我们认为通用大模型短期内还不是解决一切问题的“灵丹妙药”,汽车、医疗、金融等专业领域的问题仍然需要垂类大模型借助定制化的数据、任务加以训练。事实上除 FSD 外我们也看到了近期 Polaris、FinLLM、Corti.ai 等一系列各行各业的垂类模型获得关注。但这并不意味着通用大模型将被垂类大模型淘汰,广泛的推理、生成需求使得高精度通用大模型仍有广阔天地,据 The information 报道,OpenAI 计划在秋天推出“草莓”模型以解决数学推理问题。我们认为垂类与通用对应的下游需求有所不同,随着市场对垂类应用关注度增加,两者有望相互补充,同频共振,丰富下游 AI 产品矩阵,提高上游算力基础设施投资回报率。
【应用变化对算力投资的影响】
垂类大模型在发展过程中形成了预训练与微调两种训练方式。随着对垂类大模型的研究逐步深入,我们看到从业者逐步放弃微调选择预训练,为算力投资带来了边际增量,这是因为微调生成的垂类模型容易遇到幻觉、数据量较小、不具备等问题,从而给出错误的解决方案。因此垂类行业参与者纷纷重金投资各自大模型,底层参数量庞大,以 FSD 为例,截至 24Q1,特斯拉自建超算中心 AI 算力约 35000 块英伟达 H100 等效算力以满足自动驾驶训练需要。其他玩家诸如医疗保健公司 Hippocratic、人工智能金融科技公司 Aveni.ai 近期也纷纷融资以扩大底层模型参数量,优化生成结果,更好为客户服务。因此我们认为算力应用从通用向通用、垂类相互补充改变并不会动摇算力基础设施投资的重要性,下游 AI 爆款应用的诞生仍然需要高额 Capex 投入。基于此我们仍然坚定看好以 AI 算力为主的方向,重视相关云厂商光模块供应商、交换机供应商等。
4.特斯拉全自动驾驶,或将“明年见”
据证券日报报道,9 月 5 日,特斯拉官方账号“TeslaAI”在社交媒体上宣布,预计 2025 年第一季度在中国和欧洲推出 FSD 系统,但有待监管部门批准。特斯拉中国相关人士回应证券时报记者称,消息属实,目前的状态是等待监管部门审批。此前在特斯拉发布 2024 二季度财报之后的电话会议上,特斯拉 CEO 埃隆·马斯克曾表示,特斯拉 2024 年年底有可能在其他市场获得 FSD 许可,比如欧洲和中国。照此看来,特斯拉 FSD 进入中国的时间表或许推迟了。
今年,马斯克曾到访中国,核心目的之一是推动 FSD 在中国落地。据央视新闻报道,2024 年 4 月 28 日,应中国国际贸易促进委员会(简称“中国贸促会”)邀请,马斯克抵达北京。同一日下午,中国贸促会会长任鸿斌会见了马斯克。4 月 28 日,中国汽车工业协会、国家计算机网络应急技术处理协调中心发布的《关于汽车数据处理 4 项安全要求检测情况的通报(第一批)》显示,比亚迪、理想、路特斯、合众新能源、特斯拉、蔚来等 6 家企业的 76 款车型符合汽车数据安全 4 项合规要求(车外人脸信息等匿名化处理、默认不收集座舱数据、座舱数据车内处理、处理个人信息显著告知)。其中,特斯拉是唯一一家外资车企。特斯拉中国方面向证券时报记者表示,特斯拉通过了国家车辆数据安全的权威标准和要求,有利于全面解除(如机关单位、机场、高速等)对特斯拉等智能汽车的禁行禁停限制,更多特斯拉及智能车车主可以更加放心购买、使用符合相关安全要求的品牌。
7 月 4 日,《江苏省党政机关、事业单位及团体组织 2024—2025 年度新能源汽车框架协议采购》公示,特斯拉 ModelY 进入江苏省政府新能源用车采购目录,这是全国首例特斯拉进入政府采购目录的案例。对此,特斯拉中国方面向证券时报记者表示,特斯拉入围政府采购清单是中国政府市场开放政策的一个体现,同时也展示了特斯拉适应中国市场、遵守当地法规的能力。对其他外资企业更加积极地适应中国市场的要求,通过合规经营来获得政府和国企的订单,会起到一定的正面激励作用。
5. 马斯克宣布 Colossus 正式上线
据澎湃新闻报道,9 月 3 日,特斯拉 CEO 埃隆·马斯克在 X 平台上宣布,旗下人工智能初创企业 x.AI 打造的超级人工智能训练集群已经正式上线,该集群名为“Colossus(巨人)”。他透露,团队花了 122 天来完成 Colossus 的上线过程。Colossus 还将在未来几个月内增加 10 万颗 GPU(图形处理器),其中,5 万颗将是更为先进的英伟达 H200,这意味着 Colossus 的算力将再次翻倍。
7 月 22 日,马斯克在 X 上宣布,xAI 团队、X 团队、英伟达及其他支持公司已经于当地时间凌晨 4 时 20 分开始在“孟菲斯超级集群(Memphis Supercluster)”,也就是 Colossus 上进行训练。Colossus 由 10 万个液冷 H100 GPU 组成,在单个 RDMA 结构(即远程直接数据存储结构,可解决网络传输中服务器端数据处理的延迟)上运行,马斯克还补充说,目标是在今年 12 月前训练出“按每项指标衡量都是世界上最强大的人工智能”。
6.谷歌 DeepMind 展示 GenRM 技术:微调 LLMs 作为奖励模型,提升生成式 AI 推理能力
据 C114 报道,谷歌 DeepMind 团队于 8 月 27 日在 arxiv 上发表论文,介绍展示了 GenRM 生成式验证器,创造性提出奖励模型,从而提升生成式 AI 推理能力。AI 行业内,目前提高大语言模型(LLMs)的主流做法就是 Best-of-N 模式,即由 LLM 生成的 N 个候选解决方案由验证器进行排序,并选出最佳方案。
这种基于 LLM 的验证器通常被训练成判别分类器来为解决方案打分,但它们无法利用预训练 LLMs 的文本生成能力。DeepMind 团队为了克服这个局限性,尝试使用下一个 token 预测目标来训练验证器,同时进行验证和解决方案生成。
DeepMind 团队这种生成式验证器(GenRM),相比较传统验证器,主要包含以下优点:无缝集成指令调整、支持思维链推理、通过多数投票利用额外的推理时间计算。在算法和小学数学推理任务中使用基于 Gemma 的验证器时,GenRM 的性能优于判别式验证器和 LLM-as-a-Judge 验证器,在使用 Best-of-N 解决问题的百分比上提高了 16-64%。
7.“东数西算”战略成效显著:八大国家枢纽节点拉动投资 2000 亿元
据 C114 报道,近日,国家数据局党组书记、局长刘烈宏在讲话中透露,在相关部门和地方的共同努力下,截至今年 6 月底,八大国家枢纽节点的直接投资已超过 435 亿元,并拉动了超过 2000 亿元的投资。其中,数据中心机架总规模超过 195 万架,整体上架率达到约 63%。网络层面,东西部枢纽节点间的网络时延已基本满足 20 毫秒(ms)的要求,新建数据中心的电能利用效率(PUE)最低已降至 1.04。这表明,东部算力需求正在有序向西部迁移,算力集聚效应已初步显现。
八大国家枢纽节点是中国在算力网络布局中的重要组成部分,它们分别是京津冀枢纽、长三角枢纽、粤港澳大湾区枢纽、成渝枢纽、内蒙古枢纽、贵州枢纽、甘肃枢纽、宁夏枢纽。围绕八大算力枢纽节点,国家还规划了十个国家数据中心集群,分别是中卫集群、天府集群、重庆集群、贵安集群、庆阳集群、和林格尔集群、张家口集群、芜湖集群、韶关集群、长三角生态绿色一体化发展示范区集群。
为了加快构建高质量的算力供给体系,刘烈宏提出了“五个统筹”的策略。这包括统筹多元算力的一体化布局,促进通用算力、智能算力、超级算力、量子算力的融合发展;统筹东中西部算力的一体化协同,提升算力网络的传输效能;统筹算力与数据、算法的一体化应用,赋能各行各业;统筹算力与绿色电力的一体化融合,推动清洁能源算力中心的建设;以及统筹算力发展和安全保障的一体化推进,加快构建数据中心集群的安全体系。
8.工信部等十一部门联合发文推动新型信息基础设施协调发展
据人民网报道,工业和信息化部、中央网信办等十一部门联合印发通知,从全国统筹布局、跨区域协调、跨网络协调、跨行业协调、发展与绿色协调、发展与安全协调、跨部门政策协调等方面明确具体举措,推动新型信息基础设施协调发展。新型信息基础设施主要包括 5G 网络、光纤宽带网络等网络基础设施,数据中心、通用算力中心等算力基础设施,人工智能基础设施、区块链基础设施等新技术设施。工业和信息化部有关负责人说,随着新一代信息通信技术演进发展,新型信息基础设施的功能和类型更加多样,体系结构更加复杂,与传统基础设施的融合趋势更加凸显,但不协同、不平衡等发展问题日益突出,亟需面向各类设施,统筹各方力量,加强协调联动,推动均衡发展。
通知结合新型信息基础设施的技术发展趋势和经济社会发展需求,明确加强全国统筹规划布局、加强跨区域均衡普惠发展、加强跨网络协调联动发展等七方面工作。其中提出,统筹规划骨干网络设施,优化布局算力基础设施,合理布局新技术设施。有条件地区要支持企业和机构建设面向行业应用的标准化公共数据集,打造具有影响力的通用和行业人工智能算法模型平台。
“要从整体效率效益、安全、需求、均衡发展等角度,进行战略性布局、整体性建设。”工业和信息化部有关负责人说,要解决不同专业设施之间的协同建设问题,完善信息基础设施与其他基础设施跨行业共建共享机制,从网络安全、数据安全、稳定安全运行等方面提升信息基础设施安全能力。此外,通知还提出,加强跨部门政策协调,发挥要素配置牵引作用,协同推进跨领域标准化工作,加大投融资支持。
9.OpenAI 今年启动 GPT Next 计划:AI 性能百倍级跃升,Orion 有望接棒 GPT-4
据 IT 之家报道,OpenAI Japan 出席 KDDI 峰会,介绍了公司即将推出的下一代 AI 模型,并宣布将在 2024 年启动 GPT Next 计划,有望在 AI 功能上实现大幅飞跃。
OpenAI Japan 首席执行官长崎忠雄(Tadao Nagasaki)表示,虽然 GPT-3 和 GPT-4 的性能比较接近,但 GPT Next 预计会有更大的飞跃,性能将提高 100 倍。长崎忠雄于 2024 年 4 月成为 OpenAI Japan 的掌舵者,他在会上强调相比较传统软件,AI 技术正以指数级速度发展。
之前据 The Information 报道,OpenAI 目前正在开发两个新的人工智能系统:草莓“Strawberry” AI 模型主要提高数学和编程等领域能力,而“Orion”可能成为 GPT-4 的真正继任者,从而成为“GPT Next”。
10.腾讯推出新一代大模型“混元 Turbo”,性能大幅提升,定价低 50%
据 C114 报道,9 月 5 日,腾讯宣布推出新一代大模型“混元 Turbo”,相比前代模型,腾讯混元 Turbo 性能有显著提升,训练效率提升 108%,推理效率提升 100%,推理成本降低 50%,解码速度提升 20%,效果在多个基准测试上对标 GPT-4o,第三方测评居国内第一。
在腾讯全球数字生态大会上,腾讯公司副总裁、云与智慧产业事业群 COO 兼腾讯云总裁邱跃鹏宣布,腾讯混元 Turbo 在腾讯云上线,输入和输出价格只有前代模型的一半,企业和开发者可以直接在云上接入使用。
目前,腾讯混元在腾讯云上提供了多种尺寸的模型服务,通过 API、专属模型、精调模型等接入和使用方式面向企业及个人开发者全量开放。腾讯混元在云上提供了 Turbo、Pro、Standard、Lite 等多个版本;在专属模型上开放了代码生成、角色扮演、Functioncall 等;企业也可以通过腾讯云 TI 平台对腾讯混元进行精调。
11.腾讯云发布 AI infra 品牌“腾讯云智算”
据 C114 报道,9 月 5 日,在腾讯全球数字生态大会上,腾讯云正式发布 AI infra 品牌“腾讯云智算”。据介绍,腾讯云智算是一个集算存网一体的高性能智算底座,整合了腾讯云高性能计算 HCC、高性能网络 IHN 星脉、高性能云存储、加速框架、容器、向量数据库、智算套件等腾讯云优势产品,能够为 AI 创新输出性能领先、多芯兼容、灵活部署的智算产品能力
在稳定性和性能上,腾讯云的集群千卡单日故障数已经刷新到 0.16,是行业水平的 1/3;1 分钟就能完成万卡 checkpoint 写入,数据读写效率是业界 10 倍;千卡集群的通信时间缩短到 6%,是业界一半。同时,通过整合软硬件技术能力,腾讯云智算集群从机器上架到开始训练可以做到只需 1 天,相比业界以月为单位也大为缩短。
目前,腾讯云智算也能比较灵活地支持公有云、私有云以及分布式云的输出,成为了国内大量大模型厂商的选择,也帮助一大批 IDC 厂商向 AIDC 转型。
十二、风险提示
AI 发展不及预期,算力需求不及预期,市场竞争风险。
本文节选自国盛证券研究所已于 2024 年 9 月 8 日发布的报告《国盛通信丨 26 年 AI 算力应用初窥》,具体内容请详见相关报告。
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。