算力新变局:训练范式、架构创新、工程优化

证券之星 2025-02-08 09:21:16
股市要闻 2025-02-08 09:21:16 阅读

  本期投资提示:

      AI 大模型训练范式正在转向多阶段,强化学习算力投入仍需提升。OpenAI o1 后,黄仁勋提出三大Scaling Law:预训练、后训练和推理阶段提升算力投入,都能够提升模型性能。Deepseek V3 和R1 模型爆火,后训练阶段的强化学习(ReinforcementLearning)以及推理阶段的长思考是核心特点,也再次佐证了后训练阶段、推理阶段的Scaling Law。我们认为这两大Scaling Law 仍处于起步阶段,模型厂商将继续加码强化学习,算力投入仍有增量空间。

      模型架构创新,训推成本降低正在进行时。国内外厂商,均有多种创新。1)MoE 混合专家模型:降低训练过程激活参数量以减少计算量,已几乎成为标配;2)注意力机制的改进:线性注意力机制、稀疏注意力机制,将计算复杂度从o(N^2)降低至o(N),MQA、GQA、MLA 等降低了KV-Cache,优化推理成本,后续注意力机制仍将改进。

      Infra 工程优化,模型性价比持续提升。模型架构的创新,给硬件通信和显存带来了压力,infra 优化至关重要,Deepseek 是工程优化的代表。根据清华大学博士的测算,DeepSeek V3 模型在H800 算力集群上的算力使用效率MFU 约为36.1%~39%,相较半年前的DeepSeek V2 提升了61%,为DeepSeek 节省了近1200 万元的成本。

      根据Semianalysis,Deepseek V3 的价格(MMLU cost/ 1M Tokens)较GPT-4 下降了90 倍以上,AI 模型性价比持续提升。

      开源+蒸馏趋势下AI 模型智能平权开启,杰文斯悖论可能生效。 “算法优化—成本下降—渗透率提升—强化训推投入”闭环逻辑持续。算法和硬件架构优化带来的成本下降,会令模型厂商使用同等投入买到更多训练Flops,加速模型能力的更新以及应用加速渗透,从而带动推理算力需求的爆发。同时, deepseek V3、R1 模型,以及1.5B至70B 的蒸馏模型均为开源,可部署在端侧,帮助端侧AI 渗透。

      宏观维度,海内外大厂加码资本开支趋势延续。海外大厂微软、Meta 2024 年资本支出增速保持在40%以上,谷歌FY25 全年Capex 为750 亿美元,相比此前市场预期大幅上修。国内,以腾讯、阿里为代表的厂商24 年前三季度加码Capex。字节2025 年算力资本开支有望向Meta 看齐,小米也即将入局大模型,算力军备竞赛仍在持续。

      本轮预期差在国产算力性能和生态突破。2024 年国产 AI 芯片性能、生态均有突破,部分产品硬件算力指标接近英伟达 H100。软件生态方面,海光 DTK 学习 CUDA,有“类 CUDA” 属性,华为昇腾采用全栈自有路线,工具链完备,适配程度高、算子丰富、社区活跃,有望成全球 AI 算力 “第二极” 。

      建议关注:浪潮信息、神州数码、紫光股份、海光信息、泰嘉股份、澜起科技、中芯国际、盛科通信-U、烽火通信,中兴通讯等。

      风险提示:技术路线不确定;技术研发迭代进展不及预期;供应链稳定风险;竞争加剧风险。

声明:
  1. 风险提示:以上内容仅来自互联网,文中内容或观点仅作为原作者或者原网站的观点,不代表本站的任何立场,不构成与本站相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。本站竭力但不能证实上述内容的真实性、准确性和原创性,对此本站不做任何保证和承诺。
  2. 本站认真尊重知识产权及您的合法权益,如发现本站内容或相关标识侵犯了您的权益,请您与我们联系删除。
最新发布
今日焦点