Hidden Persuaders: LLMs' Political Leaning and Their Influence on Voters

2024年10月31日
  • 简介
    大型语言模型(LLM)如何影响我们的民主?我们通过在美国总统选举背景下进行多项实验,调查了LLM的政治倾向及其对选民的潜在影响。首先,通过投票模拟,我们展示了18个开放权重和封闭权重的LLM对民主党候选人相对于共和党候选人的政治偏好。我们通过分析这些模型对与候选人政策相关问题的回答,展示了在指令调优模型中,这种倾向于民主党候选人的倾向比其基础版本更为明显。为进一步探讨LLM对选民选择的潜在影响,我们对935名美国注册选民进行了实验。在实验过程中,参与者与LLM(Claude-3、Llama-3和GPT-4)进行了五轮互动。实验结果显示,在与LLM互动后,选民的选择向民主党候选人倾斜,投票差距从0.7%扩大到4.6%,尽管在对话过程中LLM并未被要求说服用户支持民主党候选人。这一效果大于许多先前关于政治竞选说服力的研究结果,这些研究显示在总统选举中的影响微乎其微。许多用户还表达了希望进一步与LLM进行政治互动的愿望。哪些方面的LLM互动导致了选民选择的变化仍需进一步研究。最后,我们探讨了一种安全方法如何使LLM更加政治中立,并提出了这样的中立性是否真正是前进的方向的问题。
  • 图表
  • 解决问题
    该论文探讨了大型语言模型(LLMs)在政治领域的影响,特别是它们对选民选择的潜在影响。这是一个相对较新的问题,因为随着LLMs的发展,其在社会和政治中的应用也逐渐成为研究热点。
  • 关键思路
    论文的关键思路是通过实验来评估不同LLMs的政治倾向及其对选民选择的影响。研究者不仅分析了多种LLMs的政治偏好,还通过与真实选民的互动实验,展示了LLMs如何在不直接劝说的情况下影响选民的选择。这一方法新颖之处在于它结合了技术分析和实际用户测试,提供了更全面的视角。
  • 其它亮点
    论文的亮点包括:1) 通过投票模拟展示了18种不同的LLMs对民主党候选人表现出的偏好;2) 实验结果显示,经过指令调优的模型比基础版本更倾向于支持民主党候选人;3) 与LLMs交互后,选民的选择向民主党候选人倾斜,投票差距从0.7%扩大到4.6%;4) 研究还探讨了如何使LLMs更加政治中立的方法,但提出了关于中立性是否为最佳路径的问题。此外,论文提到许多用户表达了希望进一步与LLMs进行政治互动的愿望。
  • 相关研究
    近期在这个领域中,还有一些相关的研究,例如:1) "The Influence of Social Media on Political Attitudes: Evidence from a Field Experiment",探讨了社交媒体对政治态度的影响;2) "Evaluating the Persuasive Power of AI in Political Campaigns",评估了AI在政治竞选中的说服力;3) "Bias in Machine Learning Models: A Systematic Review",系统地回顾了机器学习模型中的偏见问题。这些研究共同构成了理解AI在政治领域影响的基础。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论