计算机行业动态报告:豆包大模型推理算力需求测算
豆包大模型攀升至国内AI 应用第一。截至2024 年12 月中旬,豆包大模型日均tokens 使用量超过4 万亿,较5 月发布时增长超过33 倍。根据量子位数据,截至11 月底,豆包APP 在2024 年的累计用户规模已成功超越1.6 亿,每日平均新增用户下载量稳定维持在80 万,成为全球排名第二,国内排名第一的AIAPP。11 月份,豆包APPDAU 接近900 万,增长率超过15%。
豆包大家族全面更新:12 月18 日,在字节跳动所召开的火山引擎Force 大会上,豆包三大主力模型引来全面升级。1)豆包通用模型pro:综合能力比5 月最初发布版本提升32%,与gpt-4o 持平,但价格仅是其八分之一。在指令遵循、代码、专业知识、数学、推理等层面全面对齐了gpt-4o 水平,其中指令遵循能力提升9%,代码能力提升58%,专业知识方面能力提升54%,数学能力提升43%,推理能力提升13%。2)豆包·音乐生成模型:生成水平从“高光片段”跃升到“完整乐章”,用户简单描述或上传一张图片,就能生成一首长达3 分钟的包含旋律、歌词和演唱的高质量音乐作品,且提供局部修改功能,在针对部分歌词修改后仍能在原有旋律的节奏框架内适配。3)豆包·文生图模型:在通用性、可控性、高质量三方面取得新突破,新增“一键海报”和“一键p 图”能力,对文字细节的指令遵循能力强,擅长“写汉字”,其背后的技术源自豆包·文生图模型原生的文字渲染能力以及seededit 框架,目前已接入即梦AI 和豆包app。
AI 应用加速落地,推理算力需求或将崛起。IDC 数据显示,2024 上半年中国加速服务器市场规模达到50 亿美元,同比2023 上半年增长63%。其中GPU服务器依然占主导地位,达到43 亿美元。同时NPU、ASIC 和 FPGA 等非GPU加速服务器以同比182%的增速达到近7 亿美元市场规模。我们根据目前豆包的月活、日活以及日均token 调用量为基础,做出保守、中性、乐观3 种假设,结合大模型推理算力需求计算公式,对豆包带来的推理算力需求进行测算。在3 种假设下,预计豆包大模型或将带来759、1139、1898 亿元的AI 服务器资本开支需求。
投资建议:字节豆包大模型全面升级,月活攀升至国内AI 应用第一,我们认为AI 应用的加速落地或将带来推理侧算力需求的升级,进而推动头部互联网厂商持续提升2025 年算力侧资本开支情况。建议关注:1)AI 服务器环节:浪潮信息、工业富联、紫光股份等;2)液冷环节:高澜股份、英维克、浪潮信息等;3)国产推理芯片环节:寒武纪、海光信息等。
风险提示:AI 技术落地不及预期;算力行业竞争加剧;互联网厂商资本开支预算不及预期
声明:
- 风险提示:以上内容仅来自互联网,文中内容或观点仅作为原作者或者原网站的观点,不代表本站的任何立场,不构成与本站相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。本站竭力但不能证实上述内容的真实性、准确性和原创性,对此本站不做任何保证和承诺。
- 本站认真尊重知识产权及您的合法权益,如发现本站内容或相关标识侵犯了您的权益,请您与我们联系删除。
推荐文章: