摘要:新一代人工智能以大数据和机器学习技术为核心,实行的是联结主义的路径。该路径在场景相对封闭的数据密集型应用中取得了巨大成功,但面临可解释性差、伦理对齐困难、认知推理能力弱等瓶颈问题。为了在一定程度上解决这些问题,不可避免地涉及对开放、动态、真实环境中信息的刻画,以及对人类推理和解释机制的建模。形式论辩可以提供不一致情境下知识表示与推理的通用机制,与偏好、权重、概率等决策因素的灵活结合机制,局部化和模块化的语义高效计算机制,以及基于论证和对话的可解释机制等。有机结合形式论辩与现有大数据和机器学习技术,有望在一定程度上突破现有技术瓶颈,促进新一代人工智能的健康发展。
关键词:新一代人工智能 认知推理 伦理对齐 可解释性 形式论辩
作者廖备水,浙江大学哲学学院教授(杭州310058) 。
来源:《中国社会科学》2022年第3期P37—P54
责任编辑:赵培杰
“新一代人工智能”是为了因应当前信息环境、社会需求、人工智能研究目标等的巨大变化,而发展起来的人工智能新理论、新方法和新技术,实行的是联结主义路径。作为计算机科学和人工智能基础的逻辑学,在符号主义人工智能中起到了直接的基础性作用,但在以机器学习技术为核心的新一代人工智能中的基础性作用相对较弱。不过,随着大数据智能、群体智能、跨媒体智能、人机混合增强智能、自主智能系统等新一代人工智能前沿方向的快速发展,现有单纯基于统计方法的人工智能技术遭遇发展瓶颈。第一,现有的机器学习算法的可解释性差,在医疗、法律、金融、军事等高风险决策领域的可应用性低。第二,随着大数据技术和自主决策算法的日益普及,如何保护个人隐私,在实现安全、公平和透明等方面与人类的伦理价值对齐,仍然是一个开放性问题。第三,现有以机器学习算法为主的新一代人工智能技术容易受到不完备信息和噪声数据的干扰,缺乏对各种复杂知识的表达能力,不能建模人类在各种开放、动态环境下的推理形式,难以实现各种认知智能。尽管这些问题所针对的方向不同,但不论是为了提高可解释性,还是要进行伦理对齐或认知推理,都离不开知识的表示和推理。那么,这些问题所涉及的知识有何特点?作为计算机科学基础的数理逻辑是否足以表达和处理这些知识?如果答案是否定的,那么怎样的逻辑学理论和方法可以胜任?本文接下来的内容就围绕这些问题展开。
一、新一代人工智能的瓶颈问题及其所涉及知识的特点
当前,基于大数据和机器学习的新一代人工智能技术面临着可解释性差、伦理对齐困难、认知推理能力弱等瓶颈问题。这些问题都具有很强的交叉学科特点。例如,在提高智能系统的可解释性方面,从计算机科学和人工智能的角度,需要解决用于解释的知识的获取问题;从逻辑学的角度,需要解决知识的表示和推理问题;从社会学和心理学的角度,需要研究有效的人机交互问题,等等。本文主要从逻辑学的角度,分析上述问题所涉及的知识的特点,并在此基础上,探究与之相关的逻辑学基础理论和方法存在的问题和发展路径。
(一)可解释性问题及其所涉及知识的特点
可解释性要求人工系统能够为其决策提供人类可理解的理由。这些人工系统包括基于简单规则集的系统、基于知识的系统以及依赖于机器学习的系统等。随着机器学习技术和自主智能系统的发展,可解释成对智能系统的必然要求,特别是一些高风险决策领域。一方面,深度学习的“黑箱”性质造成深度学习缺乏对事物的语义以及事物之间因果关系的描述,因此可解释性差,使得用户难以信任深度学习算法,开发人员难以发现和改正算法存在的问题。其结果是深度学习算法难以被应用于交通、医疗、法律、金融、军事等高风险决策领域。另一方面,对于需要复杂知识表示和推理的应用,机器学习方法和知识表示方法的综合使用使决策的因素和过程变得更为复杂。例如,在法律推理领域,深度学习方法经常被用于进行情感分类、人脸识别等感知任务,而人工规则以及由归纳逻辑编程、关联规则挖掘等获得的知识则作为法律决策的理性知识。对于这样的系统决策,若缺少必要的解释机制,则难以获得相关参与方的信任和采纳。
在上述背景下,可解释人工智能近年来成为人工智能领域的研究热点。从解释的对象看,现有的方法主要集中在对机器学习模型或其预测结果的解释。主要方法包括直接建立可理解的模型,或在不可理解模型之外建立一个平行的可解释模型。前者一般基于决策树和贝叶斯网络等内在可理解的方法,后者则需要在原有模型之外获取相关知识来进行解释。对于机器学习算法以外的其他可理解的智能系统的解释,可以直接利用可理解模型中的知识。例如,在法律人工智能领域,可利用正面先例和反面先例、法律规则和法律论证等。从解释的深度看,可分为低层次的“狭窄的”解释和高层次“强”解释。前者仅说明基于一个特定的数据如何做出一个决策,而后者则将参与主体的信念、动机以及社会文化等因素也纳入解释过程,建立以人为本的会话解释系统。这样,解释不仅需要认知过程,也需要交互过程。其中,认知过程主要是关于原因和可能的反事实案例的识别,而交互过程则涉及解释者和被解释者之间的互动,目的是向被解释者提供理解决策结果所需的信息。
由上述分析可知,为了提高可解释性,人工智能系统不仅需要获得用于解释的相关知识,而且要具备合适的知识表示和推理手段,以及将推理结果作为解释内容与用户交互的途径。总的来说,与可解释性问题相关的知识具有因果性、不一致性和不确定性的特点。因果知识反映事件之间的因果关联,是解决可解释性问题的核心之一。现有研究表明,由于使用统计泛化来解释事件为什么发生并不能令人满意,在解释中很少用到概率。知识的不一致性和不确定性体现在与解释相关的其他知识中,如法律规则、法律论证、决策规则等,以及在智能系统与被解释者的动态信息交换过程之中。
(二)伦理对齐问题及其所涉及知识的特点
随着无人驾驶、医护机器人、军用武器等自主智能系统的发展,机器伦理成为一个热点研究领域。其核心问题是如何使得自主智能系统的行为或行为序列与人类的道德判断对齐。目前,用于实现机器伦理的方法主要包括自上而下方法、自下而上方法以及结合二者的混合方法。自上而下方法依据给定的伦理理论或伦理规则来约束智能系统的决策和行为。这种方法又可分为硬性约束和柔性约束两类。前者通过设置硬性的规则,当这些规则的前提未得到满足时,智能主体不能实施特定的行为。这使得智能主体没有违反规则的可能,因而限制了智能主体的自主性。后者通过基于规范的奖惩机制来实现对智能主体行为的柔性约束。通过执行奖惩机制来引导智能主体遵守规则,使得智能主体能够自主决策。目前,基于价值和规范推理的柔性约束成为管理开放、动态多主体系统的主流方法。自下而上方法通过机器学习从大数据中学习伦理原则,并以此来指导智能主体的决策和行为。在这两种方法中,都涉及伦理价值和道德规范,只是对它们的获取方法不同:前者来源于给定的理论和规则,而后者则来源于机器学习。总的来说,伦理对齐问题所涉及知识一般具有如下特点:
第一,不同的规范之间可能存在冲突。这些冲突可能发生于同一伦理体系内不同伦理原则之间,或者不同伦理体系的不同伦理规范之间。在多智能体场合,冲突可能存在于个体智能体内部,或者不同智能体之间。由于冲突的存在,智能体需要依据特定的评价标准(如道德上的、利益上的、审美上的)做出选择。
第二,伦理价值和规范具有动态性和情境依赖性。伦理价值不仅与特定的文化背景有关,而且与不同利益相关方的立场和偏好有关。事实上,在不同地域、国家、民族和文化背景下,伦理和价值是变化的,且这种变化会使规范系统产生迥异的推理结果。与此同时,当一个伦理行为涉及多个利益相关方时,不同利益相关方对伦理价值的排序可能不同。
(三)认知推理问题及其所涉及知识的特点
新一代人工智能以大数据和机器学习为核心,但当前作为机器学习典型方法的深度学习只能做到“感觉”(sensation),达不到“感知”(perception),更缺少认知推理的能力。为了完成复杂的任务,人工智能系统除了感知和行动之外,还需要理解、推理、自主决策等能力以解决复杂场景的困难问题。
认知推理是对知识和信念进行推理。依据哲学认识论,一个根本性问题是解释人类如何可能从外部世界获取知识。类似地,对于人工理性主体,也面临这个问题。为了能够获得关于世界的信息,并形成可靠的信念,一种简单的方法是在设计时把所有知识内建到人工主体的知识库中。然而,如果要让人工主体可以在一个不断变化的复杂环境中运行,这种方法显然是不可行的。因此,人工主体的设计者至少需要解决如下三个问题。第一,感知不一定是真实的。世界不总是与它所呈现的完全一样。由于这个原因,自动把感知信息转化为信念并不合适,而需要基于当前信念和观察信息,通过理性推理,获得相对可靠的信念。第二,感知实际上是一种形式的采样。由于认知的局限性,一个主体不能在所有时间检测到世界的所有状态。换句话说,主体所感知的信息只是世界的某个局部、某个片段。第三,世界在变化。主体的推理应该能够适应一个演化的世界。当世界发生变化时,主体的信念需要随之改变。
因此,为了实现认知推理,智能系统需要具备获取知识、表达知识、更新知识和对知识进行推理的有效途径。知识图谱是一种用图模型来描述知识和建模世界万物之间的关联关系的技术方法。现有的机器学习方法从大数据中发现和构造知识图谱,积累了大量的知识。然而,在由机器自动建构的知识图谱中,往往存在不完备的、不确定的、甚至冲突的信息和关系。此外,知识图谱中的知识还具有动态性,即新知识可以随时加入或删除,且新知识可能与已有的知识发生矛盾。这些都是认知推理问题所涉及的知识的特点。
完整内容:https://mp.weixin.qq.com/s/6RHRIZ1HlE7UadSVAiQkiw
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢