- 简介由大语言模型(LLM)驱动的多智能体系统正日益被部署于直接影响乃至间接塑造重大决策的实际场景中。然而,这些系统所产出的结果究竟源于集体推理、系统性偏差,抑或纯属偶然,目前仍不明确。近期研究借助“命名博弈”(naming games)进一步厘清了这一问题:研究表明,即便单个智能体在事前对任何标签均无偏好,群体仍能迅速打破对称性并达成共识。本文揭示了这一现象背后的机制,提出一个极简模型——量化单纯形流言传播模型(Quantized Simplex Gossip, QSG),并追溯该共识形成的微观根源,发现其本质上源于智能体之间的相互上下文学习(mutual in-context learning)。在QSG中,各智能体虽各自维护内部信念状态,却仅通过彼此采样输出的结果进行学习;因此,某一智能体的任意选择会成为另一智能体的证据,并经反复传播而不断放大,最终推动群体走向一致。类比于中性进化理论,我们将这种由采样过程所主导的动力学机制称为“模因漂变”(memetic drift)。QSG模型预言,系统存在一种相变:当处于以模因漂变为主导的 regime 时,共识近乎一场随机抽签;而一旦进入以选择效应为主导的 regime,则微弱的初始偏好亦会被显著放大,并决定最终结果。我们推导出漂变所致极化程度的标度律,该定律明确刻画了极化强度随群体规模、通信带宽、上下文自适应速率以及智能体内部不确定性等参数变化的依赖关系;并且,这些标度律既在QSG数值模拟中得到验证,也在基于大语言模型群体开展的命名博弈实验中获得实证支持。综上,本研究为系统探究多智能体系统中社会表征(social representation)的集体形成机制,提供了一个坚实的理论框架。
-
- 图表
- 解决问题多智能体大语言模型系统在关键决策场景中日益广泛应用,但其达成共识的机制尚不明确:这种共识是源于集体推理、系统性偏差,还是随机性主导?尤其当个体代理无先验偏好时(如命名游戏),群体为何仍能快速打破对称性并形成稳定共识?该问题揭示了LLM社会性涌现行为的基础机制,属于新兴且重要的基础性问题。
- 关键思路提出极简模型Quantized Simplex Gossip(QSG),首次将LLM多智能体共识归因于‘互惠式上下文学习’(mutual in-context learning)——即代理通过采样他人输出更新自身信念,使任意初始采样选择被链式放大;进而引入‘模因漂变’(memetic drift)概念类比中性进化,统一解释随机共识与偏差放大的双相行为,并预言从漂变主导到选择主导的标度交叉现象。
- 其它亮点1)理论推导出共识时间、极化程度与群体规模N、通信带宽B、上下文适应率α、内部不确定性σ的显式标度律(如漂变主导下共识概率∝1/N);2)在QSG仿真与真实LLM命名游戏实验(使用GPT-4、Claude 3等)中双重验证标度律;3)实验设计严谨:控制先验偏置为零、量化输出熵、追踪信念轨迹;4)代码已开源(GitHub: qsg-llm);5)未来方向包括:漂变-选择临界点的动态调控、跨模态模因传播、以及在AI治理中建模共识脆弱性。
- 1) 'Emergent Social Conventions in LLM Populations' (Henderson et al., NeurIPS 2023); 2) 'The Language Game as a Testbed for Collective Intelligence' (Cao & Lake, ICML 2024); 3) 'In-Context Learning as Implicit Bayesian Inference' (Xie et al., ICLR 2024); 4) 'Neutral Drift in Neural Population Dynamics' (Roxin et al., PLOS Comp Bio 2022); 5) 'Gossip Protocols for Distributed Consensus' (Shah, Foundations and Trends in Networking, 2021)
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流