- 简介值得信赖的人工智能解决方案在今天的数据驱动应用中至关重要,其中优先考虑的原则包括健壮性、安全性、透明度、可解释性和隐私等。这导致联邦学习作为隐私和分布式机器学习的解决方案应运而生。虽然决策树作为自说明模型,在诸如联邦学习环境等资源受限的环境中跨多个设备进行协作模型训练是理想的,以注入这些模型的可解释性。然而,决策树结构使得在联邦学习环境中进行聚合并不是微不足道的。它们需要技术来合并它们的决策路径,而不引入偏差或过度拟合,同时保持聚合的决策树的健壮性和可推广性。在本文中,我们提出了一种用于联邦学习场景的可解释客户端决策树聚合过程,以保持用于聚合的基本决策树的可解释性和精度。该模型基于聚合决策树的多个决策路径,并可用于不同的决策树类型,例如ID3和CART。我们在四个数据集中进行了实验,分析结果表明,使用该模型构建的树改善了本地模型,并且表现优于现有技术水平。
- 图表
- 解决问题本论文试图解决在联邦学习环境中,如何聚合决策树模型而不降低模型的解释性和准确性的问题。
- 关键思路本论文提出了一种可解释的客户端决策树聚合方法,通过聚合决策树的多个决策路径来保持模型的解释性和准确性。该方法可以应用于不同类型的决策树,如ID3和CART。
- 其它亮点本论文的实验使用了四个数据集,并展示了该方法构建的树模型优于局部模型,并超越了现有技术水平。本论文提出的方法可以帮助解决联邦学习环境中的隐私和分布式机器学习问题。
- 最近的相关研究包括使用神经网络的联邦学习,以及其他决策树的聚合方法,如基于加权平均的聚合方法。
沙发等你来抢
去评论
评论
沙发等你来抢