Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

上海枫泾古镇一角_20240824上海枫泾古镇一角_20240824
0

好的,这是一篇根据你提供的信息,并按照你提出的专业新闻写作要求撰写的文章。

标题:Tokenization 破局:G2PT 如何重塑图生成,挑战 GPT 的局限

引言:

在人工智能的浪潮中,图(Graph)作为一种强大的数据结构,在分子设计、社交网络分析等领域扮演着至关重要的角色。然而,如何高效、灵活地生成图结构,一直是困扰研究人员的难题。最近,一项由塔夫茨大学、东北大学和康奈尔大学研究团队合作完成的突破性研究,为图生成领域带来了新的曙光。他们提出的 Graph Generative Pre-trained Transformer(G2PT),通过创新的 Tokenization 方法,不仅挑战了传统图生成模型的局限性,也为未来更通用的图生成模型奠定了基础。这项研究的意义在于,它揭示了在图生成领域,Tokenization 才是关键,而非仅仅依赖于强大的语言模型。

主体:

图生成的新范式:序列 Tokenization 的力量

传统的图生成模型,大多依赖于邻接矩阵(adjacency matrix)来表示图结构。这种稠密的表示方式,不仅计算成本高昂,而且内存占用巨大,尤其是在处理大规模图数据时,效率低下。G2PT 的核心创新在于,它引入了基于序列的 Tokenization 方法。这种方法将图分解为节点集(node set)和边集(edge set),并将其转化为序列化的 Token,从而充分利用了图的稀疏性。

这种创新的分词方式,使得大型预训练 Transformer 模型能够像处理自然语言一样,逐步生成图结构。具体而言,G2PT 通过预测序列中的下一个 Token,逐步构建节点和边,最终完成整个图的生成过程。这种序列化的表示方式,不仅显著减少了 Token 的数量,还使得模型能够充分利用 Transformer 架构在序列建模上的优势,从而大幅提升了生成效率和质量。

G2PT 的生成过程:从节点到边的动态构建

G2PT 的生成过程是一个动态的、逐步构建的过程。首先,模型会生成图中的节点,然后根据已生成的节点,逐步预测它们之间的连接关系,即边。这种序列化的生成方式,使得我们可以清晰地看到图是如何一步步构建起来的。

研究团队通过实验对比了基于邻接矩阵表示和序列表示的图生成性能。结果表明,G2PT 的序列表示在多个指标上都显著优于传统的邻接矩阵方法。这充分证明了序列 Tokenization 在图生成领域的巨大潜力。

G2PT 的多任务适应性:目标导向生成与属性预测

G2PT 不仅在通用图生成任务中表现出色,还展现出了强大的多任务适应性。通过 Fine-tuning 技术,G2PT 能够胜任各种复杂的图生成任务,例如目标导向图生成和图属性预测。

在目标导向图生成任务中,G2PT 利用拒绝采样微调(Rejection Sampling Fine-tuning, RFT)和强化学习(Proximal Policy Optimization, PPO)技术,生成具有特定属性的图结构。例如,在药物设计领域,G2PT 可以根据预设的理化性质,优化分子图的结构。实验结果表明,G2PT 能够显著将生成分布偏移至目标属性区域,这对于药物研发等领域具有重要的应用价值。

此外,G2PT 还能够通过提取预训练模型的图嵌入,在下游任务中进行图属性预测。在多个分子属性预测数据集上的实验结果显示,G2PT 的性能与当前最先进的方法相媲美。

G2PT 的性能超越:通用图与分子图生成

为了全面评估 G2PT 的性能,研究团队在多个基准数据集上进行了对比实验。结果显示,G2PT 在通用图生成和分子图生成任务中,都显著优于或匹配了现有的最先进模型。

在通用图生成方面,G2PT 在 Planar、Tree、Lobster 和 SBM 等数据集上的表现,在 24 项评测指标中,有 11 项取得了第一,并在 17 项中排名前二。在分子图生成方面,G2PT 在 MOSES 和 GuacaMol 数据集上的生成有效性、唯一性和分子属性分布匹配等指标上,都表现出了卓越的性能。特别是在 MOSES 数据集上,G2PT 达到了 97.2% 的有效性,领先于同类方法。同时,在 QM9 数据集上,G2PT 的生成分布和目标分布的匹配度(FCD)最低,显示了其生成质量的高度一致性。

模型和数据规模的影响:揭示 Neural Scaling Law

研究团队还详细分析了 G2PT 在模型和数据规模变化下的性能。实验结果表明,随着模型规模的增加(从 10M 到 1.5B 参数),生成性能显著提升,并在一定规模后趋于饱和。这符合 Neural Scaling Law 的基本规律。此外,增加每个图的训练序列数量也能够提升模型的训练效果,但多样性达到一定水平后,收益递减。

未来展望:迈向更通用的图生成模型

尽管 G2PT 在多个任务中表现卓越,但研究团队也指出,G2PT 对生成顺序的敏感性表明,不同图域可能需要不同的顺序优化策略。未来的研究可以进一步探索通用、表达力更强的顺序设计。G2PT 的提出,不仅为图生成领域带来了新的方法,也为其他图相关任务的研究与应用奠定了坚实基础。

结论:

G2PT 的出现,标志着图生成领域的一次重大突破。它通过创新的序列 Tokenization 方法,打破了传统图生成模型的局限性,为高效、灵活地生成图结构提供了新的解决方案。这项研究不仅挑战了 GPT 在图生成方面的局限性,也为未来更通用的图生成模型指明了方向。G2PT 的成功,充分证明了在图生成领域,Tokenization 才是关键,而非仅仅依赖于强大的语言模型。这项研究的意义,将深远地影响人工智能在各个领域的应用,特别是在分子设计、社交网络分析等需要处理复杂图结构的领域。

参考文献:

(注:以上参考文献链接为示例,请根据实际情况进行替换)

补充说明:

  • 专业术语解释:

    • Tokenization (分词): 将文本或数据分解为更小的单元(Token)的过程,这些单元可以是单词、字符、子词等。
    • Transformer: 一种基于自注意力机制的神经网络架构,在自然语言处理等领域取得了巨大成功。
    • 邻接矩阵 (adjacency matrix): 一种用于表示图结构的矩阵,其中矩阵的元素表示图中节点之间的连接关系。
    • Fine-tuning (微调): 将预训练模型在特定任务上进行训练,以使其适应新任务的过程。
    • 拒绝采样 (Rejection Sampling): 一种蒙特卡罗方法,用于从难以直接采样的分布中生成样本。
    • 强化学习 (Reinforcement Learning): 一种机器学习方法,通过与环境的交互来学习最优策略。
    • ROC-AUC: 受试者工作特征曲线下面积,用于评估分类模型的性能。
    • FCD: Fréchet ChemNet Distance,一种用于评估生成分子分布与目标分布之间相似性的指标。
    • Neural Scaling Law: 一种描述模型性能与模型规模、数据规模之间关系的规律。
  • 数据来源: 本文所有数据均来自论文原文和相关报道。

  • 原创性声明: 本文所有内容均为原创,并使用了自己的语言进行表达。

希望这篇文章符合你的要求。如果你有任何其他问题或需要修改的地方,请随时告诉我。


>>> Read more <<<

Views: 0

0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注