摘要:推荐系统已成为大数据时代缓解信息过载问题的关键技术, 广泛应用于电子商务等领域, 但传统的集中式数据收集方式存在用户隐私泄漏的风险. 联邦学习允许多个数据持有者在不共享用户原始数据的情况下进行联合训练以保护数据隐私, 联邦推荐系统也受到工业界和学术界的广泛关注. 现有的联邦推荐算法将推荐系统的建模过程置于分布式环境中, 有效避免了用户敏感信息在中心服务器上的集中存储, 但仍存在隐私泄露和通信成本高的问题. 针对该问题, 提出一种基于差分隐私的通信高效联邦推荐算法. 该算法设计一种通用的子模型选择策略, 通过在客户端采用随机响应机制加强对用户交互数据的隐私保护, 并在服务器端采用最大似然估计的方法估计物品的真实交互频率来优化子模型的选择, 实现用户隐私保护与模型效用之间的有效平衡. 该算法不仅适用于矩阵分解推荐模型, 还可扩展应用于深度学习推荐模型, 在不同建模场景下均表现出较高的灵活性和适用性. 此外, 为进一步降低通信开销, 针对深度学习模型复杂结构和庞大参数导致的通信负担, 提出全局模型结构化划分策略, 并为浅层网络和深层网络制定差异化的优化策略, 有效降低了通信开销. 理论分析表明该方法满足差分隐私性质. 在真实数据集上的实验结果表明, 该方法在不显著降低模型可用性的前提下, 保障了用户数据的隐私安全, 同时大幅提高了联邦推荐中的通信效率.