计算机行业周报:OPENAI O1模型发布 SCALING LAW有望延续

赵阳/夏瀛韬 2024-09-18 14:34:17
机构研报 2024-09-18 14:34:17 阅读

  OpenAI 发布o1 系列模型,推理能力显著提升

      9 月13 日,OpenAI 正式公开o1 系列大模型,新模型可以实现复杂推理,解决科学、代码和数学方面的难题。从命名来看,o1 系列模型即是之前OpenAI 宣称即将发布的草莓(Strawberry)模型,新模型在推理能力上代表了人工智能能力的新水平,因此,计数器将重置为1,将模型命名为o1。此次发o1 模型更注重于推理能力的提升。

      在一系列高难基准测试中相比 GPT-4o 有巨大提升。

      Scaling Law 有望从Pre-training 向Post-training 延伸从技术上来看, o1 在回答之前会自动生成一个隐藏的COT(Chain ofThought,思维链),从而将问题分解成更多步骤进行思考和分析,实现推理能力的提升。

      OpenAI o1 创造了LLM 训练和推理的新范式,将Scaling Law 从Pre-training 向Post-training 环节拓展。ChatGPT 4 系列主要是在Pre-training(预训练)环节进行技术的创新,通过多模态的形式,增大预训练的数据集,从而达到模型的通用性和泛化能力的提升。

      我们认为预训练环节的Scaling Law 伴随数据量的持续提升或将放缓,这或成为GPT5 始终难产的原因之一。而此次o1 模型的发布,我们认为可能在Post-training(后训练)的RL(强化学习)环节进行了创新,同时在Inference(推理)阶段增加了COT,从而实现模型能力的提升。而在OpenAI 的技术文档中,也阐述了这种范式带来的Scaling Law,即随着更多的强化学习(训练时计算)和更多的思考时间(测试时计算),o1 的性能持续提高。我们认为这是在LLM 训练范式上的一种创新,将Scaling Law 拓展到后训练环节,从而促使大模型的通用性有望进一步提升。

      算力需求将进一步提升,应用创新仍有待突破

      通过对o1 模型性能和原理的简单分析,我们认为o1 模型有望进一步增加对算力的消耗。一方面,在Post-traning 阶段,由于存在一定程度的Scaling Law,未来必然会伴随RL(强化学习)的数据量和参数量增长。另一方面,在Inference(推理)阶段,由于COT 的存在,必然提升推理侧的数据产生量,一定程度也降低了模型的响应速度,延长了响应时间,但也会带来算力方面的提升。因此,o1 模型打开了Scaling Law 的上限,算力产业链将会持续受益。

      应用方面,由于o1 模型侧重在STEM(科学、技术、工程、数学)方面的能力提升,因此在偏数学、自然科学和代码编程方面的应用将会受益。然后这些能力的提升并没有带来应用领域的拓展,因此应用侧的产品创新仍需要等待。

      风险提示: 1)技术创新不及预期;2)政策支持力度不及预期。

声明:
  1. 风险提示:以上内容仅来自互联网,文中内容或观点仅作为原作者或者原网站的观点,不代表本站的任何立场,不构成与本站相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。本站竭力但不能证实上述内容的真实性、准确性和原创性,对此本站不做任何保证和承诺。
  2. 本站认真尊重知识产权及您的合法权益,如发现本站内容或相关标识侵犯了您的权益,请您与我们联系删除。