- 简介人工智能系统在我们日常生活中的广泛应用,包括各种应用、服务和产品,说明了从用户角度看,信任/不信任人工智能的重要性。与其他技术相比,人工智能驱动的系统不仅是人类代理人使用的一些有益工具,而且还将成为我们的替代者,或者是会影响人类思想、决策和行为的操纵性思维。信任/不信任人工智能在起到监管作用的同时,还可以显著控制这种普及程度,因为信任可以增加,而不信任可能会降低人工智能的采用率。最近,各种研究关注了人工智能中信任/不信任的不同维度及其相关考虑因素。在这个系统文献综述中,我们将在概念化当前人工智能文献中的信任后,调查不同类型的人机交互中的信任以及其对不同领域技术接受的影响。除此之外,我们提出了技术(如安全性、准确性、稳健性)和非技术的公理(如道德、法律和混合)可信度度量的分类法,并提出了一些可信度测量方法。此外,我们还研究了一些人工智能中的主要信任破坏因素(如自主性和尊严威胁)和信任制造者,并提出了一些未来的方向和可能的解决方案,以实现人工智能的可信赖过渡。
- 图表
- 解决问题研究人工智能系统中用户信任的不同方面和影响因素,提出可信度度量的分类和测量方法,并探讨人工智能中的信任破坏因素和信任建立方法。
- 关键思路提出了可信度度量的分类和测量方法,包括技术和非技术的可信度度量,探讨了人工智能中的信任破坏因素和信任建立方法。
- 其它亮点论文对用户信任人工智能系统的不同方面和影响因素进行了系统的分类和总结,并提出了可信度度量的分类和测量方法。实验使用了多个数据集,并且提供了开源代码。值得深入研究的工作包括如何提高人工智能系统的可信度,以及如何应对信任破坏因素。
- 相关研究包括《可信AI:现状与未来》、《基于信任的人工智能交互研究》、《人工智能可信度评估方法研究》等。
沙发等你来抢
去评论
评论
沙发等你来抢