Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

shanghaishanghai
0

“`markdown

上海AI Lab联合多方推出多模态推理模型MM-Eureka,数据效率惊艳

上海,[日期] – 上海人工智能实验室(Shanghai AI Lab)联合上海创智学院、上海交通大学和香港大学的研究人员,近日共同发布了一款名为MM-Eureka的多模态推理模型。该模型在多模态学习领域取得了显著突破,尤其是在数据效率方面表现突出,引发了业界的广泛关注。

MM-Eureka旨在将单模态推理中的关键特性,例如稳定的回答长度增长、准确率奖励以及视觉顿悟时刻,扩展到更为复杂的多模态场景。它能够同时处理文本和视觉信息,实现更深入、更全面的理解和推理。

两大核心模型,性能卓越

此次发布的MM-Eureka包含两个核心模型:MM-Eureka-8B 和 MM-Eureka-Zero-38B。它们分别基于 InternVL2.5-Instruct-8B 和 InternVL2.5-Pretrained-38B 构建。令人瞩目的是,MM-Eureka仅使用 54K 图文数据进行规则型强化学习训练,其平均性能便超过了使用 1M 数据的 MPO 模型。更令人惊讶的是,MM-Eureka-Zero-38B 仅使用 8K 图文数学推理数据,在自建的 K12 基准测试上超越指令模型 8.2%,在 MathVerse 上表现相当。

技术原理:强化学习与数据过滤

MM-Eureka的技术核心在于其基于规则的大规模强化学习框架。该框架基于 OpenRLHF 开发,支持 InternVL 等多种模型和 RL 算法,使得模型能够在多模态环境中进行有效的训练。研究团队还发现,数据选择对于稳定 RL 训练至关重要,因此采用了基于难度的数据过滤策略,显著提升了训练的稳定性。

更值得一提的是,MM-Eureka 在训练过程中展现出类似 DeepSeek-R1 的“视觉顿悟时刻”。这意味着模型学会了反思和回溯,能够重新审视图像中的关键信息,从而提升推理的准确性。

应用前景广阔

MM-Eureka 的多模态推理能力使其在多个领域具有广阔的应用前景:

  • 教育领域: 帮助学生更好地理解和解决复杂的数学问题。
  • 增强现实(AR)和虚拟现实(VR): 提供更沉浸式和交互式的用户体验。
  • 数据分析和决策支持: 从复杂的图文数据中提取关键信息,辅助用户做出更明智的决策。
  • 自动化和智能助手: 作为智能助手的核心技术,提供更智能、更自然的交互体验。
  • 游戏和娱乐: 用于开发更加智能的非玩家角色(NPC)和交互式剧情。

项目地址与技术论文

对MM-Eureka感兴趣的开发者和研究人员可以通过以下链接获取更多信息:

结语

MM-Eureka的发布标志着多模态推理模型在数据效率和性能方面取得了重要进展。其在教育、AR/VR、数据分析等领域的潜在应用,预示着人工智能技术将在更多领域发挥关键作用。上海AI Lab及其合作者的这项研究,无疑为多模态人工智能的发展注入了新的活力。

参考文献


>>> Read more <<<

Views: 0

0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注