- 简介机构产生大量的信息,这导致了长期的企业知识访问系统研究。最近人工智能领域的大型语言模型的发展,有望对知识访问产生重大影响。这可能以新的和意想不到的方式塑造工作场所和知识。这些类型的AI系统的部署可能会产生许多风险,因为技术系统与组织权力动态之间存在相互作用。本文提出了“后果-机制-风险”框架,以识别AI介导的企业知识访问系统对工人的风险。我们参考了广泛的文献,将风险归类为对工人价值、权力和福祉的影响。我们框架的贡献在于另外考虑了(i)这些系统的道德重要性后果:商品化、挪用、权力集中和边缘化,以及(ii)机制,代表这些后果如何在系统中产生影响。机制是将风险置于特定系统过程中的手段,这对于缓解风险至关重要。这个框架旨在帮助参与AI介导的知识访问系统设计和部署的从业人员考虑对工人引入的风险,确定引入这些风险的确切系统机制,并开始处理缓解。未来的工作可以将这个框架应用于其他技术系统,以促进对工人和其他群体的保护。
-
- 图表
- 解决问题本文旨在提出Consequence-Mechanism-Risk框架,以识别AI中介企业知识访问系统对工人的风险。这些AI系统与组织权力动态的相互作用可能会导致许多风险。
- 关键思路提出Consequence-Mechanism-Risk框架,以识别AI中介企业知识访问系统对工人的风险。该框架通过考虑系统的后果和机制来帮助从业人员评估和减轻风险。
- 其它亮点该框架有助于从业人员评估和减轻AI中介企业知识访问系统对工人的风险。该框架还考虑了系统的后果和机制,以更好地理解和应对风险。未来的工作可以将该框架应用于其他技术系统。
- 最近的相关研究主要关注企业中的AI应用和工人的风险。例如,有一篇名为“AI and Employment: A Review of the Literature”的论文对此进行了广泛的综述。


提问交流