北京 – 人工智能领域年度盛事——ICLR 2025 论文分享会将于 4 月 20 日在北京盛大举行。本次会议由机器之心主办,旨在汇聚国内外顶尖 AI 人才,共同探讨人工智能领域的最新研究成果和发展趋势。会议将围绕训练推理、多模态、Agent 等热门主题,邀请顶级专家、论文作者与现场参会观众进行深入交流。
ICLR(International Conference on Learning Representations)作为机器学习和深度学习领域的顶级会议,一直以来都备受学术界和工业界的关注。ICLR 2025 共收到 11,565 份投稿,录用率仅为 32.08%,足见其学术含金量之高。
本次论文分享会为国内 AI 人才量身打造,设置了 Keynote、论文分享、圆桌对话、Poster 交流等丰富环节,力求为参会者提供全方位的学习和交流平台。
Keynote 嘉宾及演讲主题抢先看
本次分享会的 Keynote 环节邀请到了两位重量级嘉宾,他们将带来精彩的主题演讲:
-
上午 Keynote:陈键飞(清华大学计算机系准聘副教授)
- 演讲主题: 基于量化稀疏的高效训练推理:理论及算法
- 演讲摘要: 陈键飞教授将深入探讨大模型训练推理过程中面临的计算成本高昂问题,并介绍近似梯度下降理论,为高效的近似训练方法提供理论保证。他将分享通过量化和稀疏两条技术路线设计的前馈神经网络计算加速、注意力计算加速、激活压缩、优化器压缩、通信压缩等高效训练推理算法,并从机器学习的角度出发,介绍高效训练过程中遇到的训练不稳定等问题及克服方法。
-
下午 Keynote:李崇轩(中国人民大学高瓴人工智能学院准聘副教授、博士生导师)
- 演讲主题: LLaDA:语言模型新范式
- 演讲摘要: 李崇轩教授将聚焦“自回归是否是通向当前乃至更高水平的生成式智能的唯一范式?”这一问题,从统一概率建模的视角总结当前基础生成模型的发展,并指出大语言模型的性质(如可扩展性、指令追随、情景学习、对话、无损压缩)主要来自于生成式准则,而非自回归建模独有。他将基于掩码的扩散语言模型的技术路线,介绍基础理论和扩展定律,并分享其团队训练的 8B 扩散大语言模型 LLaDA(Large Language Diffusion with mAsking)。该模型在 20 多个语言、代码、数学等评测集上全面超过 LLaMA 2,对标 LLaMA 3,并通过非自回归的方式,展示了令人惊讶的可扩展性和多轮对话能力。
论文分享与 Poster 交流:洞悉 AI 前沿动态
除了 Keynote 环节,本次论文分享会还将安排一批论文作者进行论文分享与 Poster 展示,为参会者提供与作者直接交流的机会,深入了解 AI 领域的最新研究成果。
直播平台:机器之心视频号 & 黄大年茶思屋科技网站
为了让更多人参与到这场人工智能的盛会中,本次论文分享会将在机器之心视频号以及黄大年茶思屋科技网站两个平台进行直播。
合作伙伴助力,共筑 AI 生态
本次活动得到了黄大年茶思屋科技网站、腾讯青云计划、真格基金等合作伙伴的大力支持。他们将与机器之心一道,共同推动人工智能技术的创新与发展,为中国 AI 人才的培养贡献力量。
- 黄大年茶思屋科技网站: 致力于推动科学与技术交流的开放平台,汇聚全球科学家、研究人员和技术专家,共同探讨最前沿的学术话题,分享最新的科研成果,激发创新思维的火花。
- 腾讯青云计划: 聚焦 AI 大模型等十大技术领域,面向全球招募顶尖实习生和毕业生,提供上不封顶的职级薪酬、全面定制化的培养方案,并开放核心业务工作机会、解锁前瞻性技术课题,培养中国未来的科技人才。
- 真格基金: 国内最早的天使投资机构之一,一直积极寻找最优秀的创业团队和引领时代的投资机会,从早期陪伴了众多优秀企业成长。
结语
ICLR 2025 论文分享会不仅是一场学术交流的盛宴,更是洞悉人工智能未来发展趋势的重要窗口。相信通过本次会议,参会者能够深入了解 AI 领域的最新进展,激发创新思维,为中国人工智能事业的发展贡献力量。
参考资料:
- 机器之心报道:https://www.jiqizhixin.com/
- 黄大年茶思屋科技网站:https://www.chaspark.com/
- 腾讯青云计划官网:https://join.qq.com/qingyun.html
Views: 0