Generative Social Choice
生成式社会选择
Ariel Procaccia教授特邀讲座
IIIS Distinguished Lecture
2026年3月16日,哈佛大学计算机科学系 Alfred and Rebecca Lin 教授 Ariel Procaccia 做客清华大学交叉信息研究院,带来题为 “生成式社会选择”(Generative Social Choice) 的讲座。交叉信息院助理教授郑舒冉主持讲座,近100名清华师生在 FIT 楼多功能厅参加。郑舒冉助理教授首先介绍Ariel Procaccia教授在人工智能、算法、经济学及社会问题的交叉研究,及其系列兼具理论和应用价值的项目。
01
这场讲座在讲什么?
这场讲座探讨的问题,听起来很学术,
其实和每个人都息息相关:
当一群人意见相左时,我们习惯用投票决定。
但传统投票的困境在于:
选项是给定的,而最优方案可能不在其中。
大家投出的,只能是“矮子里拔将军”。
Procaccia 教授的关注点正在于此:
如果借助AI生成更能代表民意的方案,
再从中形成更优的集体决策,
我们能否更有效地推进共识?
这正是“生成式社会选择”试图回答的核心问题。

02
为什么传统投票有时不够用?
教授以“英国脱欧”为例:
公众的真实立场往往是一整条光谱,
从完全脱欧到维持现状,中间存在许多层次。
(如名义脱欧但保留很多经济联系等)
若投票时只有“脱欧/不脱欧”两个选项,
那么制度就只能表达最粗糙的两端,
许多真实诉求便被压扁了。
这也发生在日常集体决策中。
比如改造学校食堂,学生诉求多元。
(如延长营业时间、增加窗口、降低价格……)
若只让在“涨价提质”和“维持现状”中二选一,
其政策结果往往会失真。
联系到传统“社会选择理论”,
尽管该理论旨在研究“如何公平展现民意”,
但它往往默认:选项已经给定了。
而今天很多复杂社会问题的难点恰恰在于:
真正好的选项,可能需要先“被创造出来”。

03
AI能帮什么忙?
大模型的强项,是基于已有内容生成新内容。
比如综合多方意见,形成更平衡的政策表述。
那么能否让AI从众人的原始意见出发,
生成若干条有代表性的方案?
这正是“生成式社会选择”的基本方向。
注意,这不是“让AI随便总结”,
而是在一个严格、可检验的框架里做两件事:
(1)生成候选陈述;
(2)判断陈述是否真正代表不同人群的意见。
生成的内容要在理论上站得住脚,
能证明确实有代表性,而不只是“看起来像”。

04
如何衡量陈述“有代表性”?
这正是要解决的核心挑战。
如果只让AI总结,容易出现两个问题:
一是说得比较空泛,貌似沾边但不尽人意;
二是只照顾多数人,忽略少数群体意见。
为此,教授提出新标准:“平衡正当代表性”。
这个名字听着拗口,意思却很直白:
如果有一群人数可观且观点相近的人,
最能代表他们立场的关键陈述却被遗漏了,
那这个结果就不够“平衡正当”。
从数量关系看,
假设有 n 个人参与,要选出 k 条陈述。
若存在这样一群人,
那么 k 条陈述就未达到“平衡正当代表性”:
他们至少有 n/k 人,
且对某条已选陈述的满意度为 α,
但还有另一条未选陈述能让满意度都高于 α。

05
什么是“生成式社会选择”?
可以把它理解成:
把“民主决策”和“生成式AI”结合起来的方法。
传统社会选择更像是在做:
给定菜单,统计偏好,选出结果。
而生成式社会选择想做的是:
先收集很多人的真实意见,
再用AI生成更有代表性的说法或方案,
然后用一套公平原则筛选,
确保不是只照顾声音最大的那群人。
换句话说,它想解决的不只是“选哪个”,
而是连“候选内容本身”一起优化。



06
这套方法如何运作?
按讲座介绍,大致可以理解为如下流程:
先通过问卷、访谈、讨论等方式,收集参与者的真实意见。这些意见通常是零散、长度不一、角度不同的,甚至互相矛盾。
用“生成式查询(Generative Query)”提出候选陈述,旨在生成使参与者满意度最大化的陈述。比如从几百条原始意见中,生成若干条可能的“代表性陈述”。
用“判别性查询(Discriminative Query)”为陈述打分,旨在判断某陈述是否能完全代表某人观点。
检查平衡正当代表性,逐步筛选。每次剔除评分最高的n/k条观点,重复k次,最终形成代表性陈述集。

07
未来应用及挑战?
“生成式社会选择”的意义在于:
它试图把提出候选方案这一步,
也纳入公平和民主的研究框架中。
这比传统投票更进一步。
这套方法可应用在很多现实场景里:
如面对城市规划、教育改革等复杂议题,
模型可将意见梳理成更有代表性的政策表述。
然而,教授也提到了现有大模型的局限:
如大模型上下文窗口有限,
如“代表性”不是非黑即白,很难精确评估,
如应用到真实议题,需考虑情绪、语境等因素。
总而言之,这个方向很有前景,
但距离成熟应用还有不少基础工作要做。

08
现场问答
在座师生与教授热烈互动,探讨人工智能安全、“多数派偏见”和科研发展路径等问题。
Q
交叉信息院校友、清华大学人工智能学院助理教授王同翰:鉴于大模型在生成式社会选择中的决定性地位,是否需考虑对其权力进行分治,以防范潜在的安全风险?
A
Procaccia教授:这确实是一个至关重要的问题。可以借鉴姚先生此前提出的“组建委员会”思路,通过多个 LLM 相互协作与制衡来化解这一难题。随着 LLM 能力的不断增强,这一问题将愈发凸显,如何引入相应的安全机制,是未来值得深入探索的重要方向。
Q
交叉信息院2025级本科生刘帅泽:除了“平衡正当代表性” 外,是否引入其他公理?如何防止少数派声音被淹没?
A
Procaccia教授:“平衡正当代表性”只是代表性底线,还可引入更强准则如“扩展正当代表性”,确保足够多的少数群体也能被代表。生成式社会选择的核心价值在于其数学上的严谨性。与普通的 AI 总结(仅凭概率生成)不同,他的算法通过“选出一个、剔除一批”的迭代逻辑,可以从数学上证明:无论输入数据如何,最终结果绝不会违反预设的公平公理。
Q
交叉信息院2021级本科生温和:在“正当代表性”框架下,是否需要引入特定的后训练(Post-training)或强化学习(RL),以克服大模型固有的“多数派偏见”,从而在数学层面更精准地对齐正当代表性公理?
A
Procaccia教授:为防止模型盲目顺从主流观点,可先输入一方观点引导模型形成结论,再引入截然相反的少数派意见。若模型能够在新视角加入后,通过“迭代更新”在总结中公平地反映对立立场,才说明其具备了真正的代表性处理能力。这种非盲从的多视角整合能力,是衡量模型是否满足正当代表性公理的关键。
Q
交叉信息院2025级硕士陈锐:回顾学术历程,您对博士生最重要的建议是什么?
A
Procaccia教授:我观察到,真正让博士生脱颖而出的,是提出好问题的能力——即创造力和问题意识。但挑战在于,这种能力未必是可以直接传授的。为尝试培养这一能力,去年我在经济学和计算科学课程中增加了一个新环节:要求学生在每次作业中提出一个原创研究问题,并进行初步分析。
Q
交叉信息院2025级博士生陈宇昕:在多年的教学生涯中,您认为一名优秀的研究者最核心的能力或技能是什么?
A
Procaccia教授:我想提一点,在这个时代,重要的不是追逐趋势,而是找到你真正的激情所在。现在这一点变得更难了,因为大家对趋势的追捧很狂热,很多人会担心,如果我不做热门话题,会不会落后或被忽视?但在我看来,做研究更应该关注的是你对所发现的东西是否充满热情。
采编 | 姜月亮
责编 | 吕厦敏
审核 | 袁洋

内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢