摘要:
麻省理工学院(MIT)的刘子鸣团队提出了一种名为Kolmogorov-Arnold网络(KAN)的新神经网络架构,旨在使神经网络更易于理解,并促进科学发现。这一创新基于20世纪中叶的数学思想,在深度学习时代被重新认识。KAN网络相较于传统的多层感知器(MLP)更加透明,且在特定问题上几乎可以完成所有常规神经网络可以完成的事情。
正文:
近年来,神经网络在人工智能领域取得了显著进展,成为最强大的工具之一。然而,传统神经网络,尤其是MLP,由于缺乏透明度,使得其工作原理难以理解。人类难以解释这些网络如何得出结论,以及是否存在基本原理可以解释其结果。
为了解决这一问题,MIT刘子鸣团队提出了一种名为KAN的新神经网络架构。KAN网络基于20世纪中叶的数学思想,在深度学习时代被重新认识。该架构更加透明,且在特定问题上几乎可以完成所有常规神经网络可以完成的事情。
约翰霍普金斯大学计算机科学家Alan Yuille表示:“KAN更易于解释,可能特别适用于科学应用,因为它们可以从数据中提取科学规则。它们是无处不在的MLP的一种令人兴奋的新替代品。”
KAN网络的工作原理与传统神经网络有所不同。传统神经网络依赖于具有数值权重的边,而KAN网络则使用函数作为边缘。这些边缘函数是非线性的,可以表示更复杂的曲线,并且是可学习的,可以比MLP的简单数值权重以更高的灵敏度进行调整。
MIT物理学家Tomaso Poggio曾在1989年指出,KAN核心的数学思想“与学习网络无关”。然而,刘子鸣团队通过重新审视Kolmogorov-Arnold定理,发现即使该定理生成的单值函数不平滑,网络仍然可以用平滑函数来近似它们。他们进一步了解到,科学中遇到的大多数函数都是平滑的,这使得完美(而非近似)的表示有可能实现。
刘子鸣团队开发了一些原型KAN系统,并尝试了多达六层的神经网络。他们发现,基本上可以堆叠任意多的层。此外,他们的网络在解决现实问题方面也取得了成功,例如预测数学中的结理论。
总之,KAN网络架构为神经网络领域带来了新的可能性,有助于提高网络的透明度和可解释性,并为科学发现提供新的工具。随着研究的深入,KAN网络有望在人工智能领域发挥重要作用。
Views: 0