上海宝山炮台湿地公园的蓝天白云上海宝山炮台湿地公园的蓝天白云

OpenAI 大模型方向大改:Scaling Law 撞墙?AI 社区炸锅!

OpenAI 的下一代旗舰模型 Orion 似乎遇到了瓶颈,其性能提升幅度远不如 GPT-3 和 GPT-4 之间的跨越。 这一消息引发了 AI 社区广泛的讨论,甚至有人质疑大模型的 Scaling Law 已经触及了天花板。

Scaling Law 困境:数据储备即将耗尽?

近年来,大模型的性能提升很大程度上依赖于 Scaling Law,即通过增加训练数据和计算能力来提升模型能力。然而,研究表明,如果 LLM 继续以目前的速率发展,预计到 2028 年,现有的数据储备将被全部利用完。

OpenAI 转换策略:转向训练后优化

面对这一困境,OpenAI 似乎正在改变策略。据 The Information 报道,OpenAI 的下一代旗舰模型 Orion 虽然在智能和完成任务方面与 GPT-4 相当,但其质量提升幅度远不如 GPT-3 和 GPT-4 之间的跨越。此外,OpenAI 还成立了一个基础团队来研究如何应对训练数据的匮乏,并开始将精力转向训练后对模型进行改进。

AI 社区反应:争议不断

这一消息引发了 AI 社区的热烈讨论。OpenAI 著名研究科学家 Noam Brown 表示 AI 的发展短期内不会放缓,并认为 Scaling Law 和推理时间优化可以互相增益。然而,一些研究者则认为Scaling Law 已经遇到了瓶颈,并开始探索新的发展方向。

OpenAI 强调:Scaling Law 尚未触及极限

尽管如此,OpenAI 仍然坚称 Scaling Law 尚未触及极限。该公司仍在开发昂贵的数据中心,以尽可能多地提升预训练模型的性能。OpenAI 产品副总裁 Peter Welinder 也表示,Scaling Law 和推理时间优化可以互相增益,AI 整体发展不会放缓。

未来展望:训练后优化成为新的方向?

目前,AI 行业似乎正在将精力转向训练后对模型进行改进。这一趋势可能会催生新的 Scaling Law,并带来更多创新。例如,OpenAI 正在将更多的编程功能融入其模型中,以应对来自竞争对手 Anthropic 的挑战。

结论:Scaling Law 困境引发思考

OpenAI 大模型方向的改变,引发了人们对 Scaling Law 的思考。虽然 Scaling Law 仍然是推动 AI 发展的重要力量,但它并非万能的。随着数据储备的逐渐枯竭,训练后优化可能会成为新的发展方向。

参考文献:

  • Will we run out of data? Limits of LLM scaling based on human-generated data
    *随着 GPT 提升减速,OpenAI 改变策略
  • OpenAI大改下代大模型方向,scaling law撞墙?AI社区炸锅了 | 机器之心 报道


>>> Read more <<<

Views: 0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注