垂直联邦学习(VFL)是一种分布式学习范式,其中计算客户端基于他们共同拥有的样本的部分特征来共同训练模型。当前关于VFL的研究主要集中在样本是独立的情况下,但很少考虑到样本通过图形相互关联的新兴场景。对于图形结构数据,图形神经网络(GNNs)是竞争性的机器学习模型,但在VFL设置中的朴素实现会导致显著的通信开销。此外,由于偏斜的随机梯度,训练的分析面临着挑战。本文提出了一种模型分裂方法,将骨干GNN分裂到客户端和服务器上,并提出了一种通信效率高的算法GLASU来训练这样的模型。GLASU采用惰性聚合和过期更新来跳过在评估模型时的聚合和训练期间的特征交换,大大减少了通信量。我们提供了理论分析并在真实数据集上进行了广泛的数值实验,表明该算法有效地训练了一个GNN模型,其性能与在集中式方式下训练的骨干GNN相当。
论文链接:http://arxiv.org/pdf/2303.09531v1
更多计算机论文:http://cspaper.cn/