通信行业深度:“合成数据+强化学习”-大模型进化的新范式
当地时间9 月12 日,OpenAI 发布新模型系列o1(代号“草莓”),该模型的特点主要是在给出推理结果前,花更多时间“思考”,产生较长内部思维链,在解决科学、数学、代码等类问题的表现更好。o1-preview 每百万token 输入15 美元,每百万输出token60 美元,o1-mini 相对便宜,每百万token 输入3 美元,每百万token 输出12 美元。目前ChatGPT Plus和Team 用户可以在模型选取器中手动选择,o1-preview 每周限制30 条消息,o1-mini 每周限制50 条消息。
o1 亮点一:或为OpenAI 新模型“Orin”生成合成数据。据TheInformation,o1 或为OpenAI 新模型“Orin”生成合成数据。无独有偶,我们注意到,OpenAI 创始团队出走创办的Anthropic——OpenAI 的有力竞争对手,2024 年6 月发布了大模型Claude 3.5 Sonnet,该模型使用了合成数据,在多个测试中的表现优于GPT4o。我们发现,在人类生成的数据或将耗尽之际,合成数据还具备“性价比可能更高”“更完整、全面”“隐私性更好”等优点,尽管存在可能“可能为模型引入噪声”“泛化能力不足”等问题,但能通过“诱导幻觉”“加入数据评估机制”“在训练过程中积累数据”等方式尝试解决。
o1 亮点二:“合成数据+强化学习”,o1 或确认大模型进化新范式。市场认为,Scaling Law(指大模型随着参数的增大而增强能力)只存在于大模型训练阶段。但我们发现,根据OpenAI 工程师Jason Wei,o1 使用了强化学习(RL)做思维链(Chain of Thought)来训练模型;思维链可以使模型在推理阶段实现能力增强,即Scaling Law 可以不止出现在训练阶段,也出现在推理阶段。这里我们所说的强化学习(RL),指模型A 生成推理结果后,由模型B 给推理结果打分,帮助模型A 不断调整参数、迭代、进化,分成RLAIF(基于AI 反馈的强化学习)和RLHF(基于人类反馈的强化学习)多种,后者曾因被用于ChatGPT 而名声大噪。我们认为,o1 系列的惊艳面世,或许不仅是确认了合成数据的重要性,还意味着大模型对强化学习的倚重,而在强化学习中,我们注意到,RLAIF(基于AI 反馈的强化学习)逐渐成为Meta LLama3、英伟达Nemotron-4 340B、微软Orca-2 等热门大模型的选择,相较于RLHF(基于人类反馈的强化学习),需要的人类标注较少,适合代码、数学等有客观评价标准的领域。我们推测,RLAIF 或许也是o1 在代码、数学等问题上表现更好的原因。
投资建议:根据OpenAI,o1 模型训练和测试阶段在美国奥林匹克数学竞赛(AIME)的表现随着训练和测试计算量的增长而变得更好,这表明o1“推理时,在响应用户前,思考更多”有助于让o1 表现更好,这正是推理Scaling Law。我们认为,这有助于打破投资界过往的担忧,即“推理需要的算力比训练少,当大模型的进化转向推理,算力板块承压”;相反,推理Scaling Law 仍将利好算力板块。建议关注:1)光模块产业链:中际旭创、新易盛、天孚通信、太辰光、光迅科技、华工科技、腾景科技等;2)液冷服务商:英维克;3)PCB 服务商:沪电股份等;4)AIDC:润泽科技等。
风险提示:大模型算法进展不及预期,大模型应用落地不及预期,全球宏观经济下行风险。
声明:
- 风险提示:以上内容仅来自互联网,文中内容或观点仅作为原作者或者原网站的观点,不代表本站的任何立场,不构成与本站相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。本站竭力但不能证实上述内容的真实性、准确性和原创性,对此本站不做任何保证和承诺。
- 本站认真尊重知识产权及您的合法权益,如发现本站内容或相关标识侵犯了您的权益,请您与我们联系删除。
推荐文章: