计算机行业快报:ULTRAMEM架构为推理降本 AI应用全面落地可期

证券之星 2025-02-18 03:59:00
股市要闻 2025-02-18 03:59:00 阅读

  事件描述:

      2 月12 日,字节豆包大模型团队发布全新的稀疏模型架构UltraMem,有效解决了当前主流的MoE 架构在推理时产生的高额访存问题,推理速度较MoE 架构提升2-6 倍,同时推理成本最高可降低83%。

      事件点评:

      UltraMem 在PKM 架构的基础上对模型结构、value 检索方式、稀疏参数进行优化,在保证模型性能的同时大幅提升推理效率。UltraMem 架构参考PKM(Product Key Memory)的设计,即Transformer 层中嵌入大内存层以及推理时以行列路由的方式激活参数,访存效果较MoE 架构明显改善。

      同时,UltraMem 对PKM 架构进行针对性优化以提升模型性能:1)优化模型结构:将PKM 的单个内存层拆分成多个内存层均匀嵌入Transformer 层中,使模型能够并行执行访存和Transformer 层计算操作;2)优化value 检索方式:在推理时以TDQKR 的乘法方法替代简单的行列加权方法选出得分最高的多个value,使模型能够精准检索到与输入相关的value;3)隐式扩展稀疏参数:引入数倍于physical memory 的virtual memory,在不提高模型部署复杂度的情况下提升模型性能。根据实验结果,训练规模达2000 万value 的UltraMem 模型,在同等计算资源下可同时实现业界领先的推理速度和模型性能。

      推理成本持续下降加速应用生态繁荣。根据Semianalysis 数据,随着算法持续进步,截至2024 年底,以GPT-3 质量的输出为标准,模型推理价格下降了1200 倍。进入2025 年,在推理技术优化下,DeepSeek 模型的使用成本不到o1 模型的1/25,而字节最新发布的UltraMem 架构将使主流稀疏模型的推理成本大幅下降。我们认为,模型调用价格是用户选择模型运行应用的重要考量因素,各大模型厂商及科技大厂将持续竞相推动推理成本下降,从而带动上层AI 应用的加速落地,并有望促进应用从云端场景向端侧场景拓展。

      投资建议:UltraMem 架构的模型推理成本大幅下降,将加速AI 应用落地,并推动应用向端侧渗透,进而刺激推理算力需求,重点关注1)AI 应用相关标的,包括企业服务领域的金蝶国际、泛微网络、致远互联,用友网络等,办公领域的金山办公、福昕软件等,多模态领域的万兴科技、美图公司等,金融领域的新致软件、同花顺等,教育领域的科大讯飞、佳发教育等,医疗领域的润达医疗、卫宁健康等,以及其他领域的彩讯股份、金桥信息、焦点科技等;2)国产算力芯片厂商,包括海光信息、寒武纪等;3)AI 服务器厂  商,包括四川长虹、神州数码、拓维信息、浪潮信息、中科曙光、华勤技术等;4)算力云厂商,包括青云科技、优刻得、并行科技等;5)端侧硬件厂商,包括美格智能、移远通信、广和通、乐鑫科技、中科蓝讯、恒玄科技等。

      风险提示:AI 产品落地不及预期,行业竞争加剧风险,技术研发进展不及预期。

声明:
  1. 风险提示:以上内容仅来自互联网,文中内容或观点仅作为原作者或者原网站的观点,不代表本站的任何立场,不构成与本站相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。本站竭力但不能证实上述内容的真实性、准确性和原创性,对此本站不做任何保证和承诺。
  2. 本站认真尊重知识产权及您的合法权益,如发现本站内容或相关标识侵犯了您的权益,请您与我们联系删除。
最新发布
今日焦点