您当前位置: 首页  >  新闻中心  >  学院新闻  >  正文

学院新闻

计算机科学与技术学院有3篇论文被数据挖掘和知识发现顶级会议KDD2025接收

发布日期:2025-05-27 发布人: 点击量:

(一)、

计算机科学与技术学院周柚教授指导的2022级博士生吴翾的论文“Efficient Heuristics Generation for Solving Combinatorial Optimization Problems Using Large Language Models”被CCF A类会议KDD 2025接收。论文第一作者为吴翾,通讯作者为周柚教授,其他合作者包括吴春国教授、南洋理工大学王迪高级研究员、清华大学闻立杰副教授、南洋理工大学苗春燕教授和2021级博士生肖钰彬。

近期的研究尝试利用LLM自动生成求解组合优化问题的启发式方法,通常通过提示LLM先给出搜索方向,再据此推导出启发式方法。然而,由于提示中缺乏任务相关知识,LLM往往生成不具针对性的搜索方向,进而阻碍了高质量启发式的生成。为引导LLM生成更具体的搜索方向,我们提出了Core Abstraction Prompting (CAP)方法,其抽象精英启发式的核心组成部分以作为先验知识注入提示中。此外,为了降低评估启发式所需的计算资源,我们进一步提出了Performance Prediction Prompting, (PPP)方法。PPP通过分析新生成启发式与已评估启发式之间的语义相似性,利用LLM预测新生成的启发式的适应度值。同时,我们还为PPP设计了两种配套机制,分别用于提升预测准确性以及识别不可靠预测。在四个启发式生成任务、五个组合优化问题以及七种LLMs上的广泛实验表明,本文提出的CAP在性能上优于现有最先进的LLM-based启发式方法,而融合PPP后的版本则在计算资源开销方面具有显著优势。


(二)、

计算机科学与技术学院吴春国教授和周柚教授指导的2023级硕士生宋文浩和2022级博士生吴翾的论文“Towards Efficient Few-shot Graph Neural Architecture Search via Partitioning Gradient Contribution”被CCF A类会议KDD 2025接收。论文共同第一作者为宋文浩和吴翾,通讯作者为吴春国教授和周柚教授,其他合作者包括杨博教授、2021级博士生肖钰彬、梁艳春教授、大连理工大学葛宏伟教授和新加坡国立大学Heow Pueh Lee教授。

作者从全新的视角审视了one-shot神经架构搜索中权重耦合问题的根本原因,即其主要源于后续层中不同模块对前一层模块施加了方向相互冲突的梯度。基于这一发现,提出了Gradient Contribution (GC)方法,通过在超网反向传播过程中分解Vector-Jacobian Product,高效计算模块间梯度方向的余弦相似度。由此,GC将梯度方向冲突的模块划分至不同的子超网中,而将梯度方向相近的模块归为同一子超网,从根源上缓解了权重耦合问题。此外,为克服现有图神经网络架构搜索方法仅能搜索单一范式(如MPNNGT)的局限,本文进一步提出了统一图神经网络架构搜索框架(Unified Graph Neural Architecture Search, UGAS),以探索MPNNGT的最优组合方式。实验结果表明,GC在超网划分的质量和时间效率方面均达到了SOTA表现,此外UGAS+GC方法搜索得到的架构在性能上优于人工设计的GNN以及现有GNAS方法生成的架构。


(三)、

计算机科学与技术学院王英教授指导的2023级博士生孙明辰和2023级硕士生侯佳慧共同撰写的论文“Generalizable Graph Prompt Learning Framework with Model-level Prompt Injection and Two-Stage Prompt Tuning”被CCF A类会议KDD 2025接收。论文第一作者为孙明辰,共同第一作者为候佳慧,通讯作者为王英教授。

图提示学习作为一种新兴的范式,旨在通过提供特定的图提示增强图学习模型在各种下游任务中的性能。尽管其前景广阔,但当前的图提示学习方法仍然受到以下限制。一方面,现有方法通常依赖于手动选择的图信息或简单的可学习向量,这可能会引入人为偏差并且缺乏表达能力。此外,直接端到端的提示微调策略缺乏必要的平滑过渡,这会影响模型的稳定性和泛化能力。为了克服这些限制,我们引入了可泛化的图提示学习框架(GGPL),该框架包含了模型级提示注入和两阶段提示调整策略。GGPL专注于在预训练期间编码子图结构和属性,通过使用SimGRACE预测子图相似性增强基模型的泛化能力。在下游任务中,我们构建了模型级提示注入模块,通过提示嵌入和自提示生成无缝地整合图中蕴含的不变知识。此外,我们设计两阶段调整策略包括过渡和特定任务的调整以确保模型可以被更好的指导。通过设计可学习的提示标记并使用特定任务的信息进行微调,GGPL使模型能够更稳健地泛化到下游任务。


KDD是数据挖掘和知识发现领域最具影响力的会议之一,是CCF推荐A类会议。KDD2025将于202583日至7日在加拿大多伦多举行。