- 简介本研究探讨了大型语言模型(LLMs)的风险偏好以及将它们与人类伦理标准对齐的过程如何影响它们的经济决策。通过分析30个LLMs,我们发现了一系列固有的风险偏好,从风险规避到风险追求不等。然后,我们探讨了不同类型的AI对齐,这个过程确保模型按照人类价值观行事,并专注于无害、有益和诚实,如何改变这些基本风险偏好。对齐显著地将LLMs转向风险规避,三个伦理维度都纳入模型的模型表现出最保守的投资行为。通过复制一项先前使用LLMs从公司收益电话会议记录中预测公司投资的研究,我们证明,虽然某些对齐可以提高投资预测的准确性,但过度对齐会导致过于谨慎的预测。这些发现表明,在金融决策中部署过度对齐的LLMs可能会导致严重的低投资。我们强调,在金融领域利用LLMs时,需要细致平衡伦理对齐的程度和特定要求。
- 图表
- 解决问题研究大型语言模型(LLMs)的风险偏好,以及将它们与人类伦理标准对齐的过程如何影响它们的经济决策。
- 关键思路通过分析30个LLMs,发现它们具有从风险规避到风险追求的广泛固有风险配置文件。研究发现,将LLMs与人类价值观对齐会显著地将它们转向风险规避,其中同时纳入三个伦理维度的模型表现出最为保守的投资行为。
- 其它亮点实验复制了一个先前的研究,使用LLMs从公司收益电话会议记录中预测公司投资,并证明了一定程度的对齐可以提高投资预测的准确性,但过度对齐会导致过于谨慎的预测。研究强调,在金融领域利用LLMs时需要仔细平衡伦理对齐的程度和特定要求。
- 最近的相关研究包括:1.《大规模预训练语言模型的风险管理》;2.《人工智能的伦理对齐:一项综述》;3.《机器学习模型的透明度和可解释性:一项综述》。
沙发等你来抢
去评论
评论
沙发等你来抢