通信设备Ⅲ点评报告:OPENAI O1模型对算力影响几何?

于海宁/黄天佑 2024-09-17 09:12:08
机构研报 2024-09-17 09:12:08 阅读

事件描述

      北京时间 9 月 13 日凌晨,OpenAI 正式发布其最新 AI 模型系列——OpenAI o1。OpenAICEO Sam Altman 在社媒表示:o1 是我们迄今为止最有能力和最一致的一系列模型。它代表了一种新范式的开始:可以进行通用复杂推理的人工智能。

      事件评论

      AI 大模型scaling 的瓶颈在哪里?:结合产业观点,AI 大模型的3 种能力包括语言理解和表达能力、知识存储和查询能力以及逻辑推理能力。语言理解和表达是LLM 最强的能力,任意一份预训练数据,其中都包含相当比例的语言的词法句法等成分;知识存储和查询能力取决于模型规模;而逻辑推理能力的自然数据(代码、数学题、物理题、科学论文等)在训练数据中比例太低,业内通过不断合成数据等方式构造更多逻辑推理数据,但是大部分逻辑推理数据的形式是“问题→正确答案”,没有推理步骤,导致逻辑推理能力提升慢,或许是产业担忧LLM 模型scaling up 的边际效益开始递减的原因。

      o1 通过RL 强化模型逻辑推理,反哺基座模型:o1 本质上是让大模型学会自动寻找从问题到正确答案的中间步骤,以此来增强复杂问题的解决能力,而o1 模型能力越强,则可以反哺基座模型,最终提升模型AGI 的level,即更加智能,毫无疑问是巨大进步。OpenAI总裁表示o1 是第一个使用强化学习(RL)的大语言模型,o1 在推理过程中产生了很多中间层的token,叫思维链(CoT),CoT 把一个复杂问题拆解成若干简单步骤,类似AlphaGo 下棋,Monte Carlo Tree Search(MCTS)搜索+强化学习,形成了巨大的由CoT具体步骤构成的树形搜索空间,可以训练大模型快速找到通向正确答案的COT 路径的。

      RL 的scaling 如何影响算力?:一般来说问题越复杂,则需要的树的搜索空间越大,需要把CoT 拆分的越细(增加搜索树的深度),或提出更多的可能选择(节点的分支增多,就是说树的宽度越宽),来增加找到正确的CoT 路径的可能性,效果越好,涉及到的CoT步骤越多,输出更多的推理token,o1 推理也会更慢,需要的算力更大,也就是所谓的RL 的Scaling law。从实测来看,o1 目前在数学和编程能力上表现出色,在 IMO(国际数学奥林匹克)资格考试中,相比GPT-4o 仅能解决13.4%的问题,o1 模型成功解决了其中83.3%。Codeforces 是全球最具挑战性的在线编程竞赛平台之一,世界各地的顶级程序员在该平台上进行编程挑战。在这项竞赛中,o1 模型的 Elo 评分达到了 1807,超过了 93% 的人类竞争者,而 GPT-4o 在同一比赛中的 Elo 评分仅为 808。

      投资建议:o1 通过RL 强化模型逻辑推理,让大模型学会自动寻找从问题到正确答案的中间步骤,可以反哺基座模型,最终提升模型AGI 的level,即更加智能。当问题越复杂,涉及到的CoT 步骤越多,输出更多的推理token,o1 推理也会更慢,需要的算力更大,即实现RL 的Scaling law。重点推荐:光模块龙头中际旭创、新易盛、光迅科技;光器件平台型公司天孚通信,AI 服务器及交换机厂商烽火通信、紫光股份、中兴通讯;高速线模组核心供应商华丰科技;布局IDC 液冷和电子散热的英维克;IDC 厂商润泽科技。

      风险提示

      1、AI 模型及应用发展不及预期风险;

      2、上游关键芯片供应不及预期。

声明:
  1. 风险提示:以上内容仅来自互联网,文中内容或观点仅作为原作者或者原网站的观点,不代表本站的任何立场,不构成与本站相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。本站竭力但不能证实上述内容的真实性、准确性和原创性,对此本站不做任何保证和承诺。
  2. 本站认真尊重知识产权及您的合法权益,如发现本站内容或相关标识侵犯了您的权益,请您与我们联系删除。