点击蓝字
关注我们

2025年11月28日上午,由清华大学、墨尔本大学、新加坡国立大学、香港科技大学联合主办的2025人工智能合作与治理国际论坛“文化对齐与低资源语言:为多元文化调试大模型(Cultural Alignment & Low-Resource Languages: Adapting LLMs for diverse cultures)”专题论坛,在澳大利亚墨尔本大学成功举办。
墨尔本大学计算与信息系统学院ARC DECRA 研究员莉娅・弗勒曼(Lea Frermann),墨尔本大学计算与信息系统学院博士后研究员刘春华(Chunhua Liu),皇家墨尔本理工大学数据科学与人工智能讲师李壮(Zhuang Li)AI Singapore人工智能治理研究员埃里克・奥尔洛夫斯基(Eric Orlowski),AI Singapore人工智能对齐与治理研究员哈基姆・诺哈希姆(Hakim Norhashim)出席专题论坛并作精彩发言。本场专题论坛由新加坡国立大学副教务长大卫·马歇尔讲席教授陈西文(Simon Chesterman)主持。

专题论坛
莉娅·弗勒曼(Lea Frermann)指出,人类掌握语言是一个植根于真实世界经验与社会互动的复杂过程,它不仅涉及声音、词汇和语法的使用,更与具体的意图、文化情境、情感体验及多模态感知紧密相连;相比之下,当前的大语言模型(LLM)完全依赖于对海量文本数据中符号关联模式的统计学习,虽能生成流畅文本并通过人类反馈进行行为调优,但其运作本质上缺乏对物理世界和社会情境的直接体验、内在理解与真实意图。这种根本差异揭示了大语言模型的核心局限:即便能够处理丰富的文本信息,其“理解”始终受限于训练数据的覆盖范围与质量,尤其对依赖口语或数据稀缺的文化存在表征不足的问题。因此,我们必须清醒认识到大语言模型是一种强大的模式模仿工具,而非拥有意识或真正智能的主体,在赞赏其能力的同时,应基于其缺乏世界模型与社会体验的本质,对其应用边界保持理性预期,避免将其与人类智能等同看待。

莉娅·弗勒曼(Lea Frermann)
刘春华(Chunhua Liu)认为,人工智能领域的“文化偏见”(cultural bias)“文化对齐”(cultural alignment)是非常复杂的问题,已经超越了技术问题的范畴。就技术层面来来说,一是可以开展多模态的文化数据收集工作,通过涵盖文本、视觉及音频的全面数据,捕捉更加全面的文化信息;二是可以基于更为高效的模型训练方法,在减少数据需求量的同时,保留大模型的文化学习能力;三是开发各类协作工具,让不同文化区域本地与研究人员能够为大模型的表现提供有关“文化偏见”的及时反馈,进一步助力模型的优化。与此同时,刘春华也提到,社会科学的研究者需要对“文化偏见”进一步明确定义,因为无论是国家层面、省州级,甚至同一城市的不同社区层面,都存在诸多文化差异,明确定义人工智能“文化偏见”的边界和范围,可以给技术专家们提供重要帮助。

刘春华(Chunhua Liu)发言
李壮(Zhuang Li)指出,“文化偏见”并非一种需要彻底消除的“缺陷”,它是模型从训练数据中习得并再现特定文化视角与模式的一种倾向,本质上是一种内嵌的“文化视角”。要在技术上度量和应对这种复杂且具有情境特征的文化偏见,需要聚焦三个核心:第一,必须建立一个多层次、多方面的评估框架,以清晰界定我们是在国家、社区还是个人层面讨论文化对齐;第二,度量必须建立在可靠的文化共识之上,例如利用“世界价值观调查”这类具有统计代表性的数据,而非个别样本或刻板印象,确保评估结果能真实映射目标文化群体的共同认知;第三,必须认识到文化不仅被编码于文本,还蕴含于视觉、听觉等多模态信息中,因此评估基准需能揭示这些维度的偏见。李壮强调,真正的“文化对齐”不能仅靠技术封闭优化。它要求从两个并行路径推进:在技术上,需要收集真实反映特定文化需求的数据,并开发更高效的方法让模型学习这些文化信号;在生态上,则必须为低资源语言和文化构建一个研究者、产业界与当地用户紧密协同的社区闭环,让技术开发、应用与反馈形成一个有机整体。

李壮(Zhuang Li)发言
埃里克・奥尔洛夫斯基(Eric Orlowski)指出,全球人工智能发展面临基础资源约束的根本性挑战。数十亿人口仍面临电力和互联网接入限制,这些基础条件的不平等直接影响了技术的可用性和公平性,仅仅关注计算能力、人才储备已不足以解决根本问题。此外,还必须深入思考如何有效衡量AI模型中的偏见。目前,缺乏有效方法支持不同文化背景的用户。埃里克主张将社会科学研究与计算机科学相结合,通过多层次框架——国家层面、地区层面和社区层面——系统评估文化因素。文化不仅限于表层元素,而是需要从社会学角度理解其深层背景。解决文化偏见不应追求单一“正确”答案,而应建立反映真实文化分布的评估标准,让AI系统能够适应不同文化背景的合理多样性,最终实现技术普惠与文化包容的双重目标。

埃里克・奥尔洛夫斯基(Eric Orlowski)
哈基姆・诺哈希姆(Hakim Norhashim)指出,要真正理解人工智能,必须要理解其背后的设计逻辑与偏好,目前人工智能研发仍主要以工程流程为主,它体现于模型架构、训练方式和微调等多个环节。然而,实际上人工智能生成内容并非纯技术产物,它深受输入数据、文化背景与参与主体的影响。因此,要实现真正“负责任”且“可持续”的人工智能,就必须让本地知识体系、文化专家与社区成员深度参与整个技术流程。他以新加坡团队的研究为例,说明在“人类反馈强化学习”中加入文化属性后,将会使输出实现价值对齐。哈基姆・诺哈希姆强调,问题的关键在于如何使社区专家参与问题定义,当问题改变之后,整个工程流程也会随之改变,这不仅会提升输出质量,而且会使技术更具有公共性与包容性。

哈基姆・诺哈希姆(Hakim Norhashim)发言
在圆桌讨论环节,莉娅·弗勒曼(Lea Frermann)提到,需要在大模型中将伦理问题转化为务实的技术路径,因为通用人工智能无法天然地适配所有文化。应该放弃通用幻想,采取分层、协作的务实策略来应对技术发展中的文化适应性问题。应该进行“具体任务为中心”的设计:对文化敏感的关键任务,需联合相关社群与专家进行深度定制;对一般应用,则应加强用户预期管理,明确其能力边界。刘春华(Chunhua Liu)提出,当前人工智能“文化对齐”面临两大挑战,一是如何技术研究打开模型的“黑箱”。例如,中文和英文问同一个大模型同样的宗教问题,经常会得到不同的回答,这一现象增加了多语言对齐的工作量;二是当前模型处理正面建议的能力较好,但是对于文化禁忌不够了解,例如大多数模型无法识别中国文化环境下的“送钟”问题,因而需要加强此类对齐工作。李壮认为,当前关于文化偏见的探讨正推动问题超越纯技术范畴。它迫使AI从业者深入思考:对齐的目标应设定在哪个文化层级,是国家、社区还是个人?这或许不是一个有终极答案的问题,而是一个需要持续对话、共同适应的动态过程。这也意味着AI开发者已无法仅停留于算法层面——他们必须走入多样的文化现实,成为跨领域、跨社群对话的积极参与者与协调者。埃里克・奥尔洛夫斯基(Eric Orlowski)认为,理解和衡量跨文化背景,是人工智能发展中最复杂的挑战之一。解决这一问题需要计算机科学家与社会科学专家深度合作,共同开发能反映文化真实复杂性的评估框架和数据集,使AI系统真正具备跨文化理解和适应能力。哈基姆・诺哈希姆(Hakim Norhashim)认为,研究者往往从具体场景切入,但真正决定干预策略与安全机制的是从具体案例中提炼出的“抽象洞见”。以自杀干预为例,他解释道,如果用户未在输入中明确透露自杀意图,模型往往无法提供安全响应,而这一抽象规律比单一测试案例本身更重要,因为它决定了系统需如何设计,以便在面对隐性风险信号时保持敏感性。
2025人工智能合作与治理国际论坛为期两天,设有1场全体会议、7场专题论坛,邀请了来自中国、澳大利亚、新加坡、美国、英国、新西兰等人工智能治理领域的专家学者近100人出席论坛。来自包括清华大学、新加坡国立大学、香港科技大学、联合国大学、中国科学技术大学、南开大学、澳大利亚国立大学、皇家墨尔本理工大学、查尔斯·达尔文大学、迪肯大学、伊迪斯·科文大学等高校,以及联合国开发计划署、清华大学人工智能国际治理研究院、新加坡国立大学人工智能学院、AI Singapore、Globethics、清华大学战略与安全研究中心、人工智能治理研究中心(清华大学)、清华大学中国科技政策研究中心、清华大学科技发展与治理研究中心、清华大学全球可持续发展研究院、中国科学院科技战略咨询研究院等机构的资深专家、青年学者,以及来自微软、谷歌、中国电信、奇安信、元戎启行、狮心资本等知名企业和投资机构等高层管理人员,就如何开展人工智能治理国际合作进行了精彩报告和深入研讨。





内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢