Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

上海枫泾古镇正门_20240824上海枫泾古镇正门_20240824
0

“`markdown

集体智慧赋能AI推理:CoMCTS引领多模态大语言模型新突破

摘要: 多模态大语言模型(MLLM)在复杂推理任务中面临挑战。一种名为集体蒙特卡罗树搜索(CoMCTS)的新方法,通过引入集体学习到树搜索中,显著提升了MLLM的推理能力和效率。CoMCTS通过联合扩展多个MLLM的推理路径,并结合错误定位机制,实现了类o1的推理与反思,为AI的未来发展开辟了新的道路。

引言:

“What I cannot create, I do not understand.” —— 理查德·费曼

费曼的这句格言深刻地揭示了理解的本质:只有当我们能够创造,才能真正理解。在人工智能领域,多模态大语言模型(MLLM)正朝着理解和创造的方向不断演进。然而,尽管MLLM在简单任务上取得了显著进展,但在处理复杂推理任务时,其表现仍然不尽如人意。这背后隐藏着一个关键问题:当前的MLLM更擅长直接生成答案,缺乏对中间推理过程的深入理解和掌握。

近年来,OpenAI的o1等NLP领域的突破,展示了LLM强大的推理潜力。这些进展的核心灵感来源于AlphaGo的“树搜索”方法,通过蒙特卡罗树搜索(MCTS)等技术,引导模型构建中间思维树,探索有效的推理路径,并利用这些路径进行训练,从而提升逐步推理能力。

挑战与解决方案:CoMCTS的诞生

一个直观的想法是将树搜索方法直接应用于MLLM,以期获得更有效的推理路径。然而,实践证明这种方法效果并不理想。主要原因在于:

  1. 搜索有效性: 传统的MCTS依赖自我引导,而当前的MLLM在训练时缺乏明确定义的中间推理步骤,导致搜索容易陷入低质量的同质节点,降低搜索成功率。

  2. 搜索效率: 传统的MCTS每次迭代仅扩展和探索一个后续推理节点,需要大量迭代才能完成搜索,而使用MLLM进行推理进一步增加了计算复杂度。

为了解决这些挑战,研究人员提出了集体蒙特卡罗树搜索(Collective Monte Carlo Tree Search, CoMCTS),这是一种新的学习推理方法,通过将集体学习引入“树搜索”,实现有效且高效的推理路径搜索与学习。

CoMCTS的核心优势

CoMCTS的核心优势在于:

  1. 联合扩展: CoMCTS能够联合扩展多个MLLM的推理路径,支持跨模型协同推理,避免单一模型陷入同质化低质量节点。
  2. 联合模拟与错误定位: CoMCTS结合了联合模拟和错误定位机制,能够跳过反复的中间步骤生成,并利用集体知识更准确地识别错误,从而提升搜索效率和效果。
  3. 反思推理数据构建: CoMCTS通过结合正负推理节点构建反思推理数据,使得MLLM可以在长链路推理中进行逐步反思。

CoMCTS的实现原理

CoMCTS将集体学习的概念引入到树搜索中,其核心思想是通过多个模型的集体知识协作搜索有效的推理节点,并通过多次迭代最终找到正确的推理路径。

具体而言,CoMCTS的推理路径搜索过程包括以下四个关键操作:

  1. 扩展(Expansion): 扩展当前叶子推理节点,整合新的候选推理节点。CoMCTS利用一组MLLM的集体知识,协同扩展一组多样且互补的候选推理路径,直到终止节点。
  2. 模拟与错误定位(Simulation and Error Position): CoMCTS利用多个模型的集体知识,共同模拟候选子节点的候选值,将低分节点视为错误推理节点,过滤掉第一个小于阈值的节点及其之后的所有节点。
  3. 反向传播(Backpropagation): CoMCTS从叶子节点向根节点进行自底向上的更新,推理树中新扩展路径上的每个节点都会更新其统计信息,包括访问次数和节点值。
  4. 选择(Selection): 从根节点开始,根据节点的访问次数和节点值,选择最佳的子节点进行扩展。

实验结果与展望

通过CoMCTS,研究人员构建了包含260K条数据的逐步推理数据集Mulberry-260K,并训练了一系列Mulberry模型。实验结果表明,Mulberry模型在8个benchmark上取得了明显的提升,验证了CoMCTS的有效性。

CoMCTS的成功应用,为多模态大语言模型的发展带来了新的希望。它不仅提升了MLLM的推理能力和效率,也为AI的未来发展开辟了新的道路。未来,我们可以期待CoMCTS在更多领域得到应用,推动人工智能技术的不断进步。

参考文献:

结论:

CoMCTS的出现,标志着多模态大语言模型在复杂推理能力上迈出了重要一步。通过将集体学习引入树搜索,CoMCTS不仅提升了推理的效率和准确性,更重要的是,它为我们理解和构建更智能的AI系统提供了新的思路和方法。未来,随着CoMCTS的不断发展和完善,我们有理由相信,AI将能够更好地理解世界,解决复杂问题,并最终实现真正的智能。
“`


>>> Read more <<<

Views: 0

0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注