Learning Reasoning Strategies in End-to-End Differentiable Proving

2020年07月13日
  • 简介
    试图使深度学习模型可解释、数据高效和稳健的尝试已经通过与基于规则的系统的混合实现取得了一定的成功,例如神经定理证明器(Neural Theorem Provers,简称NTP)。这些神经符号模型可以通过反向传播诱导出可解释的规则并从数据中学习表示,同时为它们的预测提供逻辑解释。然而,它们受到计算复杂度的限制,因为它们需要考虑解释一个目标所需的所有可能的证明路径,因此不适用于大规模应用。我们提出了条件定理证明器(Conditional Theorem Provers,简称CTPs),这是对NTPs的扩展,通过基于梯度的优化学习最佳规则选择策略。我们展示了CTPs的可扩展性,并在CLUTRR数据集上获得了最先进的结果,该数据集通过学习在较小的图上推理并在较大的图上进行评估来测试神经模型的系统概括能力。最后,与其他神经符号模型相比,CTPs在标准基准测试中显示出更好的链接预测结果,同时具有可解释性。所有源代码和数据集都可以在线获得,网址为https://github.com/uclnlp/ctp。
  • 图表
  • 解决问题
    论文试图设计一种可解释、数据高效、鲁棒的神经符号模型来解决大规模应用问题。
  • 关键思路
    论文提出了一种基于梯度优化的条件定理证明器(CTP)方法,该方法扩展了神经定理证明器(NTP)模型,通过学习最优规则选择策略来提高计算效率。
  • 其它亮点
    论文使用CLUTRR数据集测试系统化推理能力,在标准基准测试中显示出更好的链路预测结果,并且具有可解释性。论文提供了开源代码和数据集。
  • 相关研究
    近期的相关研究包括:神经符号集成、神经定理证明器、混合符号-子符号学习等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论