自动化所开发出图主干网络模型

科技工作者之家 2023-12-08

多年来,消息传递范式作为图神经网络(GNN)的基础,在广泛应用中取得了成功。尽管这种范式在多种任务中颇具潜力,但对图级任务(graph-level tasks)带来了一些挑战,如长程问题(long-range problem)、信息瓶颈(information bottleneck)、过度挤压现象(over-squashing phenomenon)、有限的表达能力(limited expressivity)。

中国科学院自动化研究所神经计算与脑机交互团队针对图级任务开发了图主干网络模型(Graph Trunk Network,GTR),旨在打破“以结点和边为中心”的传统思维方式,克服传统消息传递范式中的挑战。这一新框架的核心思想在于图级任务通常不需要像结点级任务一样为每个结点学习极其准确的表示。具体而言,新框架使用树分解(tree decomposition)算法在原始图中提取一棵骨架树,进而将骨架树分解为不同级别的主干(亦可称为“树干”),并运用长短期记忆(LSTM)网络沿着主干相应的路径学习各级主干的表示,最后结合各级主干的表示创建原始图的表示。深入的理论分析与全面的实验验证进一步证明了该模型在捕获长程信息和缓解过度挤压问题方面的优越性,为图级任务提供了新见解。

相关研究成果发表在IEEE Transactions on Pattern Analysis and Machine Intelligence上,相关代码已开源。研究工作得到国家自然科学基金委员会和中国科学院等的支持。美国康奈尔大学和微软亚洲研究院的科研人员参与研究。  

论文链接

GTR在分子图上的流程示意图

GTR在社交网络上的流程示意图

图主干网络模型在两类图上的流程示意图。首先(左列),从真实世界场景中提取图数据结构,以构建原始图;其次(中列),使用树分解算法从原始图中提取骨架树;最后(右列),将骨架树分解为不同级别的主干,并结合各级主干的表示创建原始图的表示。  


内容来源:中国科学院

来源:中国科学院

原文链接:http://www.cas.cn/syky/202312/t20231208_4990842.shtml

版权声明:除非特别注明,本站所载内容来源于互联网、微信公众号等公开渠道,不代表本站观点,仅供参考、交流、公益传播之目的。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。

电话:(010)86409582

邮箱:kejie@scimall.org.cn