LightGNN Simple Graph Neural Network for Recommendation

codex --dangerously-bypass-approvals-and-sandbox
claude --dangerously-skip-permissions

LightGNN: 推荐系统剪枝框架

🤖 Assistant

这是一个关于推荐系统图神经网络(GNN)剪枝框架 "LightGNN" 的学术论文全文翻译。
注意:为了保证阅读的流畅性,我移除了原文中的页码标记(如 --- PAGE 1 ---)和引用源标记(如 ``),并按照论文的逻辑结构进行了排版。参考文献列表保留了原文(因为翻译文献标题通常不利于检索),但章节标题已翻译。


LightGNN:用于推荐的简单图神经网络

作者:Guoxuan Chen, Lianghao Xia, Chao Huang
单位:香港大学,中国香港
会议:WSDM '25, 2025年3月10-14日,德国汉诺威

摘要

图神经网络(GNN)凭借其进行高阶表示平滑的能力,能够有效捕捉用户交互模式中的结构信息,在协同过滤推荐中展现出了卓越的性能。然而,现有的 GNN 范式在处理大规模、含噪声的真实数据集时,面临着可扩展性和鲁棒性方面的巨大挑战。为了解决这些挑战,我们提出了 LightGNN,这是一种轻量级且基于蒸馏的 GNN 剪枝框架,旨在大幅降低模型复杂度的同时保留核心的协同建模能力。我们的 LightGNN 框架引入了一个计算高效的剪枝模块,该模块能够自适应地识别并移除冗余的边和嵌入条目(embedding entries)以实现模型压缩。该框架由一个资源友好型的分层知识蒸馏目标所指导,其中间层对观测图进行增强以维持性能,特别是在高压缩率的场景下。在公开数据集上的广泛实验证明了 LightGNN 的有效性,它在计算效率和推荐准确性上均有显著提升。值得注意的是,LightGNN 在减少了 80% 的边数量和 90% 的嵌入条目的情况下,仍能保持与更复杂的最新基线模型相当的性能。
我们的 LightGNN 框架实现代码已开源:https://github.com/HKUDS/LightGNN
CCS 概念:信息系统 → 推荐系统
关键词:图学习,推荐,知识蒸馏


1. 引言

推荐系统已成为现代在线平台不可或缺的一部分,有效地解决了信息过载问题,并通过个性化服务提升了用户参与度。在这些系统的核心,协同过滤(CF)作为一种主导范式,利用用户的历史交互来建模潜在偏好以进行行为预测。协同过滤的演变催生了多种方法,从经典的矩阵分解方法(如 [13])到复杂的神经架构(如 [9])。在这些发展中,图神经网络(GNN)已成为基于 CF 的推荐系统的强大工具,其独特之处在于能够通过迭代的嵌入平滑来捕捉复杂的高阶交互模式。开创性的工作包括引入图卷积网络(GCN)来建模用户-物品关系的 NGCF [25],以及将 GCN 简化为推荐系统核心组件的 LightGCN [8]。为了解决 GNN 推荐中交互稀疏的挑战,研究人员开发了创新的自监督学习(SSL)技术,包括 SGL [27]、NCL [15] 和 HCCF [30]。这些方法通过利用自我增强的监督信号显著提高了推荐准确性。
尽管 GNN 取得了显著进展,但我们要强调两个持续挑战 GNN 协同过滤模型的固有局限性:
i) GNN 的可扩展性有限:在线推荐服务通常处理海量的关系数据(例如数百万次交互)。这导致用户-物品图的规模急剧增加,造成 GNN 内部大量的信息传播操作。这种可扩展性问题在存储、计算时间和内存需求方面提出了挑战。此外,基于 GNN 的 CF 严重依赖于 ID 对应的嵌入来表示用户和物品 [8],这些嵌入的复杂性与用户和物品数量的增长直接相关,导致巨大的内存成本。
ii) 交互图中普遍存在噪声:协同过滤推荐系统主要利用用户的隐式反馈(如点击和购买),因为这些数据非常丰富。然而,这些交互记录往往包含大量偏离用户真实偏好的噪声,包括误点击和流行度偏差 [23]。虽然现有的部分方法试图通过随机丢弃(如 PinSage [33])或知识蒸馏(KD)(如 SimRec [29])等技术来解决可扩展性问题,但它们仍然容易受到错误信息的影响,可能导致压缩后的推荐系统做出不准确的预测。
为了解决这些局限性,本文建议对 GNN 中的冗余和噪声组件进行剪枝,具体针对图的边和嵌入条目。我们的目标是增强模型的可扩展性,同时保留关键的用户偏好特征。然而,实现这一目标面临着非同小可的挑战:


2. 基于 GNN 的协同过滤

图神经网络(GNN)已被证明是协同过滤(CF)最有效的解决方案之一 [4, 28]。CF 任务通常涉及一个用户集 U (|U|=I),一个物品集 V (|V|=J),以及一个用户-物品交互矩阵 ARI×J。对于用户 uiU 和物品 vjV,如果用户 ui 与物品 vj 有过交互,则条目 ai,jA 等于 1,否则 ai,j=0。常见的交互包括用户的评分、浏览和购买。
file-20260323040550920.png
基于 GNN 的 CF 方法基于交互矩阵 A 构建用户-物品图。该图可以表示为 G=(U,V,E),其中 U,V 作为图的顶点,E 表示边集。对于每个满足 ai,j=1(ui,vj),存在双向边 (ui,vj),(vj,ui)E
基于用户-物品图 G,GNN 进行信息传播以平滑用户/物品嵌入,从而更好地反映交互数据。具体来说,它首先分别为每个用户 ui 和物品 vj 分配初始嵌入 ei,ejRd。这里 d 代表隐藏层维度。然后,它迭代地将每个节点的嵌入传播到其邻居节点以进行表示平滑。以广泛应用的 LightGCN [8] 为例,用户 ui 和物品 vj 在第 l 次迭代中的嵌入为:

ei,l=(vj,ui)E1didjej,l1(1)

其中 ei,l,ei,l1Rd 表示 ui 在第 l 层和第 (l1) 层的嵌入向量,ej,l,ej,l1 使用类似的符号。第 0 层嵌入向量 ei,0,ej,0 使用初始嵌入 ei,ejdi,dj 分别表示节点 ui,vj 的度,用于拉普拉斯归一化。
经过总共 L 次迭代后,基于 GNN 的 CF 聚合多阶嵌入以得到最终表示 e¯i,e¯jRd 和用户-物品关系预测 y^i,j,如下所示:

e¯i=l=0Lei,l,y^i,j=e¯ie¯j(2)

有了预测分数 y^i,j,GNN 模型通过最小化 BPR 损失函数 [18] 进行优化,涵盖所有正用户-物品对 (ui,vj+)E 和采样的负对 (ui,vj)

Lbpr=(ui,vj+,vj)logσ(y^i,j+y^i,j)(3)

尽管上述 GNN 框架在推荐中达到了最先进的性能,但其可扩展性受到大规模交互图和嵌入表的限制。鉴于此,本文提出了 LightGNN,旨在有效地剪枝 GNN 模型以实现高效的图神经协同过滤。


3. 方法论

本节详细介绍提出的 LightGNN 的技术细节。整体框架如图 2 所示。
file-20260323040550918.png

3.1 图神经网络剪枝

受 GNN 彩票假设 [5, 6] 的启发,我们建议仅使用 GNN 参数的一个子集,该子集能最大程度地保留模型功能,从而提高其效率。具体而言,上述典型 GNN 模型的时间复杂度为 O(L×|E|×d),空间复杂度相应为 O(|E|+(I+J)×d)。因此,通过减少边数量 |E| 以及 d 个嵌入维度中的非零元素数量,LightGNN 能够优化计算效率和内存效率。为了实现这一目标,必须识别边 E 和嵌入表 E={ei,ej|uiU,vjV} 中的噪声和冗余部分,以防止性能下降。

3.1.1 边剪枝 (Edge Pruning)

为此,LightGNN 采用一个稀疏权重矩阵 WRI×J 进行边剪枝。如果一条边 (ui,vj) 是剪枝的候选对象,则 W 中对应的权重 wi,j 是一个可学习参数。否则,wi,j 设为 0 且不进行优化。利用权重矩阵 W,剪枝后的 GNN 的图信息传播过程如下:

EU,l=DU12(AW)DV12EV,l1+EU,l1(4)

其中 表示逐元素乘积运算符,将可学习权重 W 注入信息传播过程。这里 EU,l,EU,l1RI×d 表示第 l 层和第 (l1) 层的用户嵌入表,EV,l1RJ×d 表示第 (l1) 层的物品嵌入矩阵。DURI×I,DVRJ×J 分别表示用户和物品的度矩阵。获取高阶物品嵌入 EV,l 的信息传播类似地使用 (AW)
基于参数化的信息传播,权重 W 参与最终用户/物品嵌入的计算,进而用于预测和损失计算。通过反向传播,W 被调整以反映边的重要性,其中较大的 |wi,j| 表示边 (ui,vj) 对产生更好的推荐结果有更大的影响。鉴于此特性,LightGNN 框架在训练后剪枝不太重要的边(噪声或冗余),具体做法是将重要性最低的 ρ% 候选边设为 0(见 3.2.3),其中 ρ(0,100) 表示丢弃比例。剪枝算法遵循多次运行的迭代方式。在每次运行中,LightGNN 首先进行模型训练和剪枝权重调整的参数优化,然后通过丢弃边和其他参数来剪枝 GNN。

3.1.2 嵌入和层剪枝 (Embedding and Layer Pruning)

正如 GNN 的复杂度分析所示,用于表示用户和物品的参数(即嵌入 E)也对 GNN 的运行时间和内存成本有显著贡献。因此,LightGNN 遵循与边类似的剪枝算法来剪枝嵌入矩阵 E 中的条目。由于 E 中的标量参数已经反映了其对应条目的重要性,LightGNN 不对嵌入使用额外的剪枝权重。类似地,LightGNN 根据 |ei,d| 的绝对值交替进行模型训练和比例为 ρ% 的参数剪枝,其中 ei,d 表示 i 的嵌入向量中的第 d 维。
除了边和嵌入,GNN 的时间复杂度表明图传播层数 L 也极大地影响 GNN 的计算时间。此外,在实践中,L 对堆叠中间结果的临时内存成本也有显著影响。因此,LightGNN 进一步减少图迭代次数 L 以提高效率,这也减轻了 GNN 的过平滑效应 [30]。

3.2 分层知识蒸馏

3.2.1 双层对齐 (Bilevel Alignment)

受知识蒸馏(KD)在将先进模型的学习知识压缩到轻量级架构中的优势 [29] 的启发,LightGNN 开发了一个分层知识蒸馏框架,以最大程度地在剪枝后的 GNN 模型中保留原始的高性能。LightGNN 以一个训练良好的 GNN 模型(如 LightGCN [8])作为教师,将具有剪枝结构、嵌入和 GNN 层的学生模型与教师模型在隐藏嵌入和最终预测两个方面进行对齐。
在预测层面上,应用以下损失函数:

Lpkd=v(σ(ϵvt/τ)logσ(ϵvs/τ)+σ¯(ϵvt/τ)logσ¯(ϵvs/τ))(5)

其中 v=(ui,vj1,vj2)σ¯(x)=1σ(x)ϵv=y^i,j1y^i,j2。这里 (ui,vj1,vj2) 表示随机采样的训练元组,类似于 BPR 损失,但 vj1vj2 不固定为正样本或负样本。σ() 表示 sigmoid 函数,将值约束在 (0, 1) 之间。τR 称为温度系数 [10]。我们用上标 s 表示学生模型的预测,用上标 t 表示教师模型的预测。通过这个训练目标,LightGNN 框架鼓励剪枝后的 GNN 模型模仿包含所有边、嵌入条目和传播迭代的完整 GNN 模型的预测,从而尽可能获得教师的预测能力。
除了预测级对齐外,LightGNN 还通过将学习到的嵌入视为对比学习的成对数据视图来对齐教师模型和学生模型。具体而言,应用以下 InfoNCE 损失函数 [16]:

Lekd=uiUlogsoftmax(SU,ui)vjVlogsoftmax(SV,vj)(6)

其中 softmax(SU,ui) 基于余弦相似度计算。这里 SU 中的元素表示学生模型和教师模型分别为用户 ui 生成的最终嵌入 e¯is,e¯it 之间的余弦相似度。物品侧的嵌入级 KD 计算类似。通过这种嵌入级 KD 目标,LightGNN 可以更好地指导剪枝后的 GNN 在更深层次上保留基本的图结构和参数。

3.2.2 用于结构增强的中间 KD 层

由于用户-物品交互数据的稀疏性,一些关键的偏好模式并未反映在直接的邻居关系中,而是保留在高阶关系中。为了在边剪枝过程中促进捕捉这些高阶连接,我们利用一个用于边增强的中间 KD 层模型来增强 LightGNN 的知识蒸馏。
具体来说,LightGNN 进行两阶段蒸馏:首先从原始 GNN 到增强 GNN,然后从增强 GNN 到最终剪枝 GNN。增强 GNN 不剪枝任何边或嵌入条目,而是包含高阶连接作为增强边。形式上,增强 GNN 具有与学生相同的模型架构(公式 4),但在以下增强的交互图上工作:

G¯=(U,V,E¯),E¯={(ui,vj),(vj,ui)|a¯i,j(h)0}(7)

其中 a¯i,j(h) 表示带自环的对称邻接矩阵的 h 次幂中 (ui,vj) 的条目 [25]。换句话说,如果在原始图中 ui 可以通过任何长度小于或等于 h 跳的路径连接到 vj,则边 (ui,vj) 存在于增强图 G¯ 中。通过这种结构增强,增强 GNN 直接在其模型参数中包含高阶连接,以防止在激进的边剪枝中丢失关键的高阶模式。在中间 KD 期间,增强 GNN 由原始 GNN(无权重)监督,不仅为了模仿其准确的预测,还为了学习所有边的适当权重 Wt。中间 KD 层利用来自原始 GNN 的双层蒸馏监督和自适应边权重,防止增强的较大图引入噪声。

3.2.3 用于剪枝的重要性蒸馏

在从原始 GNN 到增强 GNN 模型的第一次知识蒸馏之后,LightGNN 将其学到的带有结构增强的知识蒸馏到最终的剪枝 GNN 模型中。除了上述的双层对齐外,LightGNN 进一步通过重要性蒸馏增强了这第二次 KD,该蒸馏显式利用中间模型中学习到的重要性权重来提高最终模型中剪枝权重的精度。具体来说,最终剪枝 GNN 中的剪枝权重矩阵是一个复合变量,其条目计算如下:

w¯i,js=wi,js+β1wi,jt+β2σ(e¯ite¯jt)for (ui,vj)E(8)

其中 w¯i,jsR 表示决定是否剪枝边 (ui,vj) 的权重,它是利用最终学生模型的独立边权重 wi,jsWs、作为教师模型的中间 GNN 的调整边权重 wi,jtWt,以及中间 GNN 的最终嵌入 e¯it,e¯jt 产生的边预测来获得的。β1,β2 表示两个用于加权的超参数。我们定义稀疏决策矩阵 W¯s={w¯i,js}I×J
通过边剪枝中的这种重要性蒸馏,最终学生模型中的剪枝权重 W¯s 不仅通过双层 KD 目标以端到端的方式进行训练,还直接受到中间教师模型中训练良好的权重的调整。此外,通过利用在增强图中获得的边权重,剪枝后的 GNN 被注入了高阶连接性,以促进边丢弃和全局关系学习。值得注意的是,除了边剪枝外,学生的边权重也用于图信息传播,以用更少但具有补偿性、自适应性和信息性的边重要性来丰富剪枝后的 GNN。

3.3 带均匀性约束的优化

受 CF 中学习均匀嵌入优势 [22, 28] 的启发,LightGNN 提出基于对比学习的自适应均匀性约束来规范模型优化。具体来说,该约束最小化嵌入之间的成对内积以强制表示的均匀性,同时最大化具有相似剪枝掩码(pruning masks)的节点之间的嵌入相似性。通过这种方式,正向关系通过学习到的剪枝权重得到增强。形式上,自适应均匀性约束如下:

Lureg=uiU(loguiSiexp(e^ise^is/τ)uiUexp(e^ise^is/τ))+vjV(logvjSjexp(e^jse^js/τ)vjVexp(e^jse^js/τ))(9)

其中 SiSj 分别表示用户 ui 和物品 vj 的正样本集,通过选取在嵌入剪枝中共享最高相似度的用户/物品来确定。以用户侧为例,邻域集 Si 通过以下方式获取:

Si={uiwiwi0max(wi0,wi0)δ}(10)

其中 wi,wi{0,1}d 分别表示第 0 层嵌入向量 eiseis 的二进制剪枝掩码。算子 表示逐元素乘法,0 表示向量的 L0 范数。δ 表示相似度松弛的阈值超参数,根据剪枝比例选择。
通过上述使用相似剪枝嵌入作为正样本集的对比损失,LightGNN 可以在学习均匀分布嵌入的同时捕捉剪枝过程中的节点级相似性。结合协同过滤损失 Lbpr、双层 KD 损失 LpkdLekd,以及参数 Θ 上的权重衰减正则化项,LightGNN 应用以下多任务训练损失,其中 λ 为超参数:

L=λ0Lbpr+λ1Lpkd+λ2Lekd+λ3Lureg+λ4ΘF2(11)

file-20260323040550943.png

4. 评估

我们在 LightGNN 框架上进行了广泛的实验,旨在回答以下研究问题(RQs):

4.1 实验设置

4.1.1 数据集。LightGNN 使用三个真实世界数据集进行评估:Gowalla, Yelp, 和 Amazon。Gowalla 数据集包含从 Gowalla 平台获取的 2010 年 1 月至 6 月用户在地理位置的签到记录。Yelp 数据集来自 Yelp 平台,包含 2018 年 1 月至 6 月用户对场所的评分。Amazon 数据集包含 2013 年期间人们在 Amazon 平台上对书籍的评分。遵循 [29],我们过滤掉交互少于 3 次的用户和物品,并将原始数据集按 70:5:25 的比例划分为训练集、验证集和测试集。此外,遵循 [8],我们将评分转换为二进制隐式反馈。
4.1.2 评估协议。我们遵循推荐系统通用的评估协议 [25, 35]。对于每个用户,我们将测试集中的正样本物品与所有未交互的物品进行排序,这种方法称为全排序评估。我们使用两个常用指标 Recall@N 和 NDCG@N [24, 27],其中 N=2040
4.1.3 基线。我们将 LightGNN 与 18 个不同类别的基线进行比较,包括分解方法 (BiasMF [13]),深度神经 CF 方法 (NCF [9], AutoR [19]),基于图的方法 (GCMC [1], PinSage [33], STGCN [36], NGCF [25], GCCF [4], LightGCN [8], DGCF [26]),自监督推荐系统 (SLRec [32], SGL [27], NCL [15], SimGCL [34], HCCF [30]),以及压缩 CF 方法 (GLT [5], UnKD [3], SimRec [29])。
4.1.4 超参数设置。我们使用 PyTorch 实现 LightGNN,使用 Adam 优化器和 Xavier 初始化器,采用默认参数。对于所有模型,训练批次大小设为 4096,默认嵌入大小为 32。对于所有基于 GNN 的模型,我们将层数设为 2。LightGNN 中的权重 λ0,λ1,λ2{1ek|k=0,1,...,4} 中调整。λ3 在更宽的范围内调整,额外包含 {1e5,1e6}。权重衰减正则化权重 λ4{1ek|k=3,4,...,9} 中选择。所有温度系数从 {1ek,3ek,5ek|k=1,0,1,2} 中选择。基线方法使用其发布的代码实现,并通过网格搜索进行超参数调整。效率测试在配备 NVIDIA GeForce RTX 3090 GPU 的设备上进行。

4.2 性能比较 (RQ1)

我们首先在推荐准确性上将 LightGNN 与基线进行比较。结果如表 2 所示(注:表2为原文中的大表格,展示了各模型在三个数据集上的 Recall 和 NDCG 表现)。我们得出以下观察结果:

4.3 效率测试 (RQ2)

为了评估模型效率,我们评估了 LightGNN 和基线的内存及计算成本。对比的基线包括 NGCF, GCCF, HCCF 以及现有的 GNN 压缩方法 UnKD。LightGNN 在不同的保留率下进行了测试。图 3 展示了相对于 NGCF 性能的结果。我们得出以下观察:

file-20260323040550942.png

file-20260323040550921.png|475
file-20260323040550946.png|475

4.4 消融实验 (RQ3)

我们使用 Gowalla 和 Yelp 数据,在不同剪枝比例下调查 LightGNN 技术设计的有效性。结果如表 3 所示。我们有以下观察:

4.5 剪枝比例的影响 (RQ4)

在这个实验中,我们调查了边和嵌入条目的剪枝比例对模型性能和效率的影响。图 4 展示了在不同保留率下的评估模型性能和前向传播计算 FLOPs。我们展示了两种剪枝方案:温和剪枝方案(移除较少图边)和激进剪枝方案(移除更多边)。基于结果,我们得出以下观察:

4.6 抗过平滑效应研究 (RQ5)

为了评估 LightGNN 在剪枝过程中缓解 GNN 过平滑效应的能力,我们将模型的嵌入分布均匀性与基线方法进行比较。此比较在两个维度上进行。

4.7 噪声和冗余识别 (RQ6)

我们探索了 LightGNN 削减交互数据中噪声和冗余的能力。结果详见图 6。
噪声剪枝。在图 6(a) 中,展示了两组左侧边的决策权重 W¯s,以及右侧用户对相应物品的文本评论和评分。值得注意的是,这些评论和评分并未暴露给 LightGNN。结果显示,LightGNN 为诸如 <U310,V1704><U4470,V4641> 的交互分配了低权重,这与用户的负面反馈(例如,“太咸了”)一致。在图 CF 的背景下,此类负面反馈实例被视为常规用户-物品交互,可能会对用户偏好建模产生不利影响。在我们的结果中频繁出现的类似观察表明,LightGNN 有效地识别并处理了图结构中的噪声,从而改善了基于 GNN 的推荐的剪枝效果。
冗余剪枝。在图 6(b) 中,一些代表性案例展示了 LightGNN 冗余剪枝的功效,其中三个用户与多个共享相同类别(如中餐馆和美国酒吧)的场所进行交互,反映了冗余的用户兴趣信息。尽管 LightGNN 是类别不可知的,但它识别出了这些相似性,为一些冗余物品分配了较低的权重。这鼓励剪枝算法消除冗余,从而提高模型效率。此外,得益于中间 KD 层中的可学习边权重,LightGNN 保留了每种兴趣的偏好强度,而不是依赖于每种兴趣的物品计数。


5. 相关工作

5.1 图神经推荐系统

图神经网络(GNN)已成为推荐系统的基础架构。早期工作如 NGCF [25] 和 GCMC [1] 将图卷积网络(GCN)引入协同推荐。后续研究包括 STGCN [36],其在 GNN 编码器内集成了自动编码架构,以及 DGCF [26],其将表示解耦模块纳入基于图的协同过滤。LightGCN [8] 和 GCCF [4] 强调了先前图神经架构中的冗余,并通过消除非线性和线性映射实现了性能提升。最近,自监督学习(SSL)因其生成丰富监督信号和解决推荐中数据稀疏问题的能力而受到关注。基于对比学习(CL)的图 CF(例如 SGL [27], SimGCL [34], DirectAU [22], AdaGCL [12])是一种流行的 SSL 技术,可有效学习均匀分布以对抗 GNN 的过平滑效应。HCCF [30] 和 NCL [15] 引入额外的编码视图以丰富图 CL。此外,基于图的推荐也通过基于掩码自动编码的生成式 SSL 技术得到增强,如 AutoCF [28] 和 DGMAE [17]。
尽管 GNN 的进步显著增强了推荐性能,但 GNN 广泛的信息传播和节点特定参数带来的低效率仍然是一个固有局限。在此背景下,LightGNN 旨在有效地剪枝 GNN 的冗余和噪声组件,同时通过蒸馏约束保持高性能。

5.2 图模型的模型压缩

为了增强 GNN 的可扩展性,先前的工作利用随机节点和边采样技术处理大图(例如 PinSAGE [33], HGT [11])。然而,这些随机策略不能确保保留关键信息,可能会显著影响模型性能。作为回应,出现了几种方法来更好地保留原始模型的重要模式。GLT [5] 主张通过学习边对下游任务性能的重要性来仅保留基本边。其他研究通过知识蒸馏改进压缩监督。GLNN [37] 和 SimRec [29] 提出从更重的 GNN 中蒸馏出基于 MLP 的高效学生模型。UnKD [3] 使用分层蒸馏策略进一步减轻 KD 过程中的偏差。此外,KD 也被应用于压缩基于非 GNN 架构的推荐器(例如 [21, 31])。
与先前通过用更简单的架构替换 GNN 来广泛降低模型复杂度的方法不同,LightGNN 保留了 GNN 强大的拓扑提取能力。它通过显式识别并消除 GNN 结构和嵌入中的冗余和噪声来实现效率。这种策略有效地减轻了图中的错误信息,同时通过剪枝信息增强了可解释性。


6. 结论

本文介绍了一种新颖的剪枝框架 LightGNN,旨在解决基于 GNN 的协同过滤中的可扩展性和鲁棒性挑战。LightGNN 显式建模 GNN 推荐器中每个边和嵌入参数的冗余和噪声概率,从而能够精确剪枝错误信息。它由创新的分层蒸馏目标驱动,利用高阶关系和多级蒸馏来增强性能保留。广泛的实验表明,LightGNN 在推荐性能、压缩效率和鲁棒性方面优于基线。


A. 伦理考量

A.1 伦理影响

针对 LightGNN(一种基于蒸馏的 GNN 剪枝框架)提出的研究引入了用于图神经网络(GNN)模型压缩的创新技术,以在保持推荐准确性的同时降低模型复杂性。虽然该领域的进步前景广阔,但由于基于图的推荐系统通常依赖敏感的用户交互数据,因此需要考虑伦理影响。

A.2 缓解策略

下面,我们介绍一些可能的缓解策略。