- 简介大型语言模型在现实世界的应用越来越广泛,包括研究和教育。然而,这些模型存在众所周知的伦理问题,由于与人类主体的广泛接触,这些问题可能以意想不到的方式在人机交互研究中显现。本文报告了与LLM使用相关的研究实践,涉及16个半结构化访谈和50名HCI研究人员的调查。我们讨论了LLM已经在整个HCI研究流程中被利用的方式,从构思到系统开发和论文撰写。虽然研究人员描述了对伦理问题的细致理解,但他们很少或只能部分地在自己的项目中识别和解决这些伦理问题。这种缺乏行动和依赖变通方法的情况是通过感知控制和分布式责任在LLM供应链中的缺乏、参与伦理的有条件性以及竞争性优先事项来解释的。最后,我们反思了研究结果的影响,并提出了塑造HCI研究中与大型语言模型互动的新兴规范的机会。
- 图表
- 解决问题本论文旨在探讨大型语言模型在人机交互研究中的伦理问题,并分析当前研究实践中的伦理问题应对情况。
- 关键思路论文通过对50位人机交互研究人员的采访和调查,发现虽然研究人员对伦理问题有一定的认识,但在实践中却很少或只能部分地识别和解决这些问题。研究人员解释了这种行动不足和对解决方案的依赖,是由于他们认为在大型语言模型供应链中缺乏控制和分布式责任、参与伦理的条件性以及竞争性优先级等原因。
- 其它亮点论文讨论了大型语言模型在人机交互研究中的应用现状,包括从构思到系统开发和论文撰写的整个研究流程。此外,论文还提出了塑造大型语言模型在人机交互研究中新兴规范的机会。
- 最近在这个领域中,还有一些相关的研究,如《大型语言模型的伦理问题》、《人工智能伦理问题的调查研究》等。
沙发等你来抢
去评论
评论
沙发等你来抢