news studionews studio

根据您提供的信息,以下是我为您整理的新闻稿草稿:


标题:Chain of Thought(CoT)能否赋予模型无限推理能力?学界意见分歧

正文:

近日,人工智能领域围绕Chain of Thought(CoT)技术是否能赋予模型无限推理能力的问题引发了热烈讨论。知名学者田渊栋和Yann LeCun对此表示质疑,认为不能盲目地将理论上的可能性应用到所有场景中。

OpenAI发布的最新大模型o1成为AI界的焦点,其技术细节的保密使得外界难以深入了解其内部推理过程。在此背景下,研究者们开始探索类似研究成果,以期找到线索。

Google Brain推理团队创建者Denny Zhou今年5月发表的论文《Chain of Thought Empowers Transformers to Solve Inherently Serial Problems》引起了广泛关注。该论文作者阵容强大,包括斯隆奖得主马腾宇及其两位学生。论文中,作者们提出,只要允许Transformer模型生成足够多的中间推理tokens,它们就能解决任何问题,从而使得LLM的推理能力没有上限。

论文的核心观点是,引入CoT能够显著提升Transformer的表达能力,使其能处理更加复杂的问题。实验结果显示,加入CoT层的Transformer在解决模加法、排列组合、迭代平方和电路值问题等核心任务上表现优异。

然而,田渊栋和LeCun对此表示反对。他们认为,理论上两层神经网络可以拟合任何数据,但这并不意味着可以无限制地应用在所有场景中。他们警告,过度的乐观可能会导致对模型能力的误判。

在技术层面,论文作者们采用了电路复杂性来讨论Transformer的能力,并通过实验验证了CoT在提升Transformer串行计算能力方面的效果。实验结果表明,CoT模式下的Transformer在处理复杂问题时,准确率显著提高。

尽管如此,关于CoT是否能真正实现无限推理能力,学界仍有待进一步的研究和讨论。


请注意,以上新闻稿是基于您提供的信息编写的,可能需要根据实际情况进行调整和补充。


>>> Read more <<<

Views: 0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注