- 简介在构建面向人类的分类和决策预测模型时,表达能力和可解释性之间的权衡仍然是一个核心挑战。符号规则具有可解释性,但通常缺乏表达能力,而神经网络在性能方面表现出色,但被认为是黑匣子。在本文中,我们展示了大型语言模型(LLMs)和符号程序的组合可以弥合这一差距。在所提出的基于LLM的符号程序(LSPs)中,具有自然语言提示的预训练LLM提供了一组可解释的模块,可以将原始输入转换为自然语言概念。符号程序然后将这些模块集成到可解释的决策规则中。为了训练LSPs,我们开发了一种分而治之的方法,逐步从头开始构建程序,每个步骤的学习过程都由LLMs指导。为了评估LSPs从数据中提取可解释和准确知识的有效性,我们引入了IL-Bench,这是一个包含不同模态的各种任务的集合,包括合成和真实世界的场景。实证结果表明,与传统的神经符号程序和普通的自动提示调整方法相比,LSP具有更优越的性能。此外,由LSP学习的知识是自然语言描述和符号规则的组合,易于转移给人类(可解释),其他LLMs,并且对于分布外样本具有很好的泛化能力。
- 图表
- 解决问题论文旨在解决分类和决策制定中表达能力和可解释性之间的权衡问题。如何使用预训练的大型语言模型和符号程序来解决这个问题?
- 关键思路论文提出了一种新的方法——LLM-based Symbolic Programs (LSPs),将预训练的大型语言模型和符号程序相结合,既保证了可解释性,又提高了表达能力。通过分治法逐步构建程序,每个步骤的学习过程都由LLMs指导。
- 其它亮点论文使用了IL-Bench数据集进行实验,结果表明LSP相对于传统的神经符号程序和自动提示调整方法具有更好的性能和可解释性。同时,LSP的知识是自然语言描述和符号规则的组合,易于传递给人类和其他LLMs,并且对于超出分布的样本具有很好的泛化性。
- 最近在这个领域中,也有一些相关的研究,如Neuro-Symbolic Concept Learner (NS-CL),Neural-Symbolic VQA,Neural-Symbolic Computing等。
沙发等你来抢
去评论
评论
沙发等你来抢