尽管人工智能 (AI) 具有许多潜在的好处,但它也被证明在复杂的现实世界环境(如军事行动)中表现出许多挑战,包括脆弱性、感知限制、隐藏的偏见和缺乏因果关系模型,这些对于理解和预测未来事件很重要。这些限制意味着,在可预见的未来,人工智能仍不足以在许多复杂和新颖的情况下独立运行,并且人工智能需要由人类仔细管理才能实现其预期的效用。本报告“Human-AI Teaming: State-of-the-Art and Research Needs” 检查了与人类操作相关的 AI 系统的设计和实施相关的因素。本报告概述了人机协作的研究现状,以确定差距和未来的研究重点,并探讨了实现最佳性能的关键人机系统集成问题

往期免费报告:https://www.sintef.no/globalassets/project/hfc/documents/2021-human-ai-interaction-26355.pdf

本期报告:https://nap.nationalacademies.org/catalog/26355/human-ai-teaming-state-of-the-art-and-research-needs

报告总结

美国军方正加大对人工智能(AI)技术的投资,用于提高数据处理速度、任务规划自动化,以及创建更快的预测目标和系统维护,该技术也会在多域作战(MDO)的指挥控制中发挥关键作用。实现这一目标就要求人工智能系统具备任务执行的可靠性和健壮性,并且可以作为人类的队友协同工作。尽管人工智能技术优势良多,但是也被证明在复杂的真实世界环境(如军事行动)中面临诸多挑战,包括脆弱性、感知限制、隐藏的偏见以及缺乏预测关系模型等。这就意味着,在可预见的未来,人工智能将仍然不足以在复杂和新环境下独立运行,人类需要仔细管理人工智能系统才能达到预期效果。过去30年研究表明,人们作为复杂自动化(包括人工智能系统)的监控者同样面临巨大挑战。人们可能会对系统正在做的事情缺乏了解,在尝试与人工智能系统交互时工作负载高,在需要干预时缺乏态势感知,基于系统输入的决策偏差,以及手工技能的退化。这些众多的挑战将继续在人类方面产生问题,即使是更有能力的基于人工智能的自动化。因此,需要开发有效的人-智能协同编队能力,利用人类和AI的独特能力,克服各自的不足。一个高效的人-人工智能编队最终会增强人的能力,提高性能,超越任何一个实体。为此,委员会制定了一套相互关联的研究目标,旨在围绕人类-人工智能编队发展,这些目标基于对人类-人工智能编队(第2章)、编队流程(第3章)、态势感知(SA)(第4章)、人工智能透明度和可解释性(第5章)、人类-人工智能交互方法(第6章)、信任(第7章)、减少人和人工智能偏见(第8章)和培训(第9章)的模型和度量的改进,并得到了人-系统集成(HSI)流程基金会(第10章)的支持。该报告总结提出人类-人工智能编队研究目标,包括近期、中期和远期目标。

内容中包含的图片若涉及版权问题,请及时与我们联系删除