一夜蒸发超4万亿元!英伟达回应:DeepSeek将为英伟达带来更多需求
英伟达回应:DeepSeek是出色的AI进步
英伟达发言人表示:“DeepSeek是一项出色的人工智能进步,也是Test Time Scaling(TTS,即在推理阶段通过增加计算量来提升模型推理能力的一种方法)的完美范例…DeepSeek的工作说明了如何使用该技术创建新模型,利用广泛可用的模型和完全符合出口管制的计算。”
英伟达还声称,它认为DeepSeek的突破将为英伟达带来更多需求。
“推理需要大量的英伟达GPU和高性能网络,”英伟达发言人补充说,“我们现在有三个规模定律(Scaling Law):训练前定律和训练后定律,它们会继续,还有新的TTS(test-time scaling)。”
英伟达还澄清称,DeepSeek使用的GPU完全符合出口标准。这与AI科技初创公司Scale AI创始人亚历山大·王(Alexandr Wang)上周的评论相反,亚历山大·王当时声称DeepSeek使用了在中国大陆被禁止的英伟达GPU。而DeepSeek表示,它使用了英伟达针对中国市场的特殊版本GPU。
TTS的完美范例
英伟达的评论也反映了英伟达首席执行官黄仁勋、OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)和微软首席执行官萨蒂亚·纳德拉最近几个月讨论的一个新主题,即英伟达声明中所提到的TTS。
人工智能的繁荣和对英伟达GPU的需求在很大程度上是由“规模定律(scaling law)”驱动的,这是OpenAI研究人员在2020年提出的人工智能开发概念。这一概念表明,通过大幅增加构建新模型所需的计算量和数据量,可以开发出更好的人工智能系统,而这需要越来越多的芯片。
自去年11月以来,黄仁勋和阿尔特曼一直在关注规模定律的一个新问题,黄仁勋称之为“Test Time Scaling”。
这一概念认为,如果一个训练有素的人工智能模型在进行预测或生成文本或图像时,花更多的时间、使用额外的计算机能力来进行“推理”,那么相比于运行更短时间给出的答案,前者能够给出更好的答案。
大规模砸钱还有意义吗?
DeepSeek的横空出世之后,华尔街分析师们现在都在问一个问题:微软、谷歌和Meta等公司对基于英伟达的人工智能基础设施的数十亿美元资本投资是否被浪费了?因为DeepSeek的出现已经证明——同样的结果可以以更低的成本实现。
本月早些时候,微软表示,仅2025年就将在人工智能基础设施上投入800亿美元,而Meta首席执行官马克·扎克伯格上周刚刚表示,Meta计划在2025年投资600亿至650亿美元的资本支出,作为其人工智能战略的一部分。
美银证券分析师贾斯汀·波斯特(Justin Post)在周一的报告中写道:“如果模型培训成本被证明可以显著降低,我们预计使用云人工智能服务的广告、旅游和其他消费应用公司将在短期内获得成本效益,而与超大规模人工智能相关的长期收入和成本可能会降低。”
声明:
- 风险提示:以上内容仅来自互联网,文中内容或观点仅作为原作者或者原网站的观点,不代表本站的任何立场,不构成与本站相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。本站竭力但不能证实上述内容的真实性、准确性和原创性,对此本站不做任何保证和承诺。
- 本站认真尊重知识产权及您的合法权益,如发现本站内容或相关标识侵犯了您的权益,请您与我们联系删除。
推荐文章: