点击蓝字
关注我们



2025年11月27日,由清华大学、墨尔本大学、新加坡国立大学、香港科技大学联合主办的2025人工智能合作与治理国际论坛,在澳大利亚墨尔本大学隆重开幕。本届论坛以“普惠智能 同筑同享”(Inclusive AI: Who Builds, Who Benefits?)为主题。论坛汇聚了来自全球人工智能领域的顶级专家学者、政府代表、国际组织和企业人士,旨在共同探讨国际合作在人工智能治理中的重要作用,推动建立开放包容、互利共赢的人工智能国际治理体系,共同迎接未来发展的机遇与挑战。

与会人员合影


此次论坛包括开幕式、全体会议和多个分论坛。开幕式由墨尔本大学人工智能与数字伦理中心联合创始主任珍妮·帕特森(Jeannie Paterson)主持。联合国秘书长道路安全特使让·托德(Jean Todt),联合国大学校长兼联合国副秘书长奇利齐·马瓦拉(Tshilidzi MARWALA),清华大字校务委员会副主任、经济管理学院教授、可持续社会价值研究院院长杨斌致开幕辞。

珍妮·帕特森(Jeannie Paterson)主持开幕式

让·托德(Jean Todt)指出,道路交通事故是全球年轻人的头号杀手,每年造成约120万人死亡。要实现“到2030年将道路相关的受害者人数减少一半”联合国2030道路安全目标,仍面临严峻挑战,亟需创新方案与全球合作。托德强调,人工智能技术已成为变革道路安全的关键力量。它不仅能通过自动驾驶汽车,更能借助本地摄像头、预测分析等触手可及的技术,实时检测危险驾驶、优化交通信号、协助政府在高风险路口精准部署,从而有效保护生命。他提出,确保这些救命技术的普惠性与可及性至关重要,呼吁建立强有力的公私合作伙伴关系与全球监管框架,以鼓励创新并确保安全不容妥协。托德认为,唯有以新的紧迫感和团结精神推进合作,才能共同打造一个安全、可持续的出行未来,最终终结这场“无声的流行病”。

让·托德(Jean Todt)致辞



杨斌代表清华大学对嘉宾表示欢迎,对墨尔本大学、新加坡国立大学、香港科技大学、联合国大学、联合国开发计划署等合作伙伴表示感谢。杨斌提出,中国高度重视人工智能发展与治理,通过发布系列文件,开展实际行动,为包容开放、安全可靠的智能未来做出了积极贡献。杨斌指出,清华大学将人工智能视为至关重要的战略方向,并在人才培养、人工智能赋能教育教学、学科建设等方面进行了有益探索。清华大学人工智能国际治理研究院(I-AIIG)是中国人工智能伦理治理领域的前沿中心,刚刚荣获了由联合国教科文组织与乌兹别克斯坦政府联合颁发的首届“比鲁尼人工智能伦理问题科学研究奖”。最后,杨斌强调,人工智能不只是加,而应该被放在指数位置上。清华大学希望与全球伙伴一道,协同促进人工智能更好赋能世界,为推动构建人类命运共同体作出新的更大贡献!

杨斌致辞


奇利齐·马瓦拉(Tshilidzi Marwala)指出,清华大学是联合国大学的重要合作伙伴,期望通过伦理治理与国际合作,共同致力推动人工智能成为包容、公平和可持续发展的力量。马瓦拉认为,本次论坛的主题回应了数字未来的核心议题,并为应对复杂挑战提供了独特平台。人工智能正在深刻重塑产业结构、知识生产和社会关系,而人工智能的包容性发展无法自动实现,它需要我们以谦逊的态度付诸集体行动。人工智能不仅关乎技术,更是一个伦理与社会问题,它需要政府、学界、产业界和公民社会加强协同,要求国家及学科之间加强对话,这正是本次论坛所体现的精神。马瓦拉倡议,让我们以合作、勇气与仁爱为指引,共同构建以人为本的智能未来。预祝本次论坛取得圆满成功!

奇利齐·马瓦拉(Tshilidzi Marwala)致辞
全体会议由清华大学文科资深教授、人工智能国际治理研究院院长、苏世民书院院长薛澜主持。加州大学伯克利分校计算机科学教授、清华大学人工智能国际治理研究院学术委员斯图尔特·罗素(Stuart Russell)、中国新一代人工智能发展战略研究院执行院长龚克、墨尔本大学人工智能与数字伦理中心联合创始主任珍妮・玛丽・帕特森(Jeannie Marie Paterson)、新加坡国立大学副教务长陈西文(Simon Chesterman)和香港科技大学媒体人工智能研究中心主任、新兴跨学科领域学部副主任宋韵雅作专题发言,并围绕人工智能发展新特点、国际治理合作新动向等议题进行了圆桌讨论。

薛澜主持全体会议

斯图尔特·罗素(Stuart Russell)指出,人工智能已经发生了根本性转变,通过黑箱训练高度模仿人类,其运行机制难以被理解,从而更加不可预测和验证。其核心风险在于,人工智能可能模仿、习得人类运用语言达成说服、诱惑、销售等目的的能力,未来可能为达目的不择手段。他认为,未来人工智能有75%的可能因投资回报不佳而陷入“人工智能冰川世纪(AI Ice Age)”。即便人类真的实现了AGI的突破,人工智能也会有70%的概率彻底脱离人类控制,30%的概率发生类似切尔诺贝利的重大事故。对此,他提出了三种应对方式:(1)实施产品化监管:建立注册、许可与实时监控机制,确保系统失控时可被紧急关闭。(2)按照药品和核电站的监管思路:要求开发商证明安全性,设定不可逾越的行为红线。(3)重构技术基础:在科学和工程层面,推动发展可验证、内部运行机制透明的新型人工智能系统。根据“辅助博弈”理论,为破解人工智能与人类价值观对齐这一核心难题、平衡技术创新突破与安全可控发展提供了兼具理论深度与实践价值的核心思路。

斯图尔特·罗素(Stuart Russell)发言
龚克指出,2025年8月26日,中国国务院发布《关于深入实施"人工智能+"行动的意见》,这一具有里程碑意义的国家战略文件,旨在将人工智能打造为经济社会发展的核心驱动力,为中国人民、中国经济乃至世界和平发展创造实际的价值。该《意见》系统部署了六大重点行动领域,同时为了确保战略有效实施,中国政府提出了多项关键保障措施,包括提升人工智能模型基础能力、加强数据供给创新、强化智能算力统筹、优化应用发展环境、促进开源生态繁荣、加强人才队伍建设,以及加速相关监管框架建立等系统性支撑体系。龚克特别强调,国家设定了明确的发展目标:到2027年,新一代智能终端、智能体等应用普及率将超过70%;到2030年,人工智能将全面赋能经济社会高质量发展。他认为,这一战略将深刻重塑全球人工智能发展格局。

龚克发言

珍妮・玛丽・帕特森(Jeannie Marie Paterson)提出,相较于斯图尔特·罗素等技术专家更加关注的人工智能失控等“未来想象中的风险”,她更加关注正在发生的现实风险。她认为,当前有两方面的人工智能风险值得特别关注:一是人工智能技术具备前所未有的易用性,存在遭到误用和滥用的可能性;二是人工智能领域的科技巨头并不是社会学科学家和历史学家,并不了解人工智能大规模普及后造成的经济社会影响,例如和大语言模型的长期交流可能影响青少年心理健康、人工智能的普及可能造成严重的就业替代等。帕特森指出,现实中的人工智能风险最终取决于人类如何部署和使用人工智能,她赞同斯图尔特·罗素有关“大鸟与人”的比喻,认为人类应该始终将决策的权力控制在自己手上,不能让人工智能代替人类决策,应该引入适当的监管框架。人工智能的规则不但不会阻碍创新,反而会提升社会整体的安全性。

珍妮・玛丽・帕特森(Jeannie Marie Paterson)发言
陈西文(Simon Chesterman)指出,当前人工智能的国际合作面临两大核心障碍:一是技术发展路径存在大量“未知的未知”,导致决策困境;二是全球治理机制缺失,难以建立有效的监管框架。他揭示了人工智能领域的深层认知矛盾:研发者坦言其技术可能带来生存风险,却仍持续开发;科技公司常表面支持监管,实则阻挠具体方案,动机或为参与规则制定,或借监管构筑市场壁垒。治理应被视为类似“安全带法规”的安全基石——它既能保障安全,也使得高速发展成为可能。政府必须建立算法审计等强制性标准,尤其在连开发者都无法预测技术走向的当下,袖手旁观最为危险。在监管立场上,他主张监管机构无需乞求企业信任,相反开发者应在其公开承认技术不确定性的前提下,主动寻求公众信任。监管不应畏缩,而应像管理其他高风险行业一样,建立必要的审慎框架。

陈西文(Simon Chesterman)发言

宋韵雅(Celine Yunya Song)从“计算社会科学”视角系统阐述了人工智能治理的核心问题。她指出,人工智能治理的关键不在于技术本身,而在于制度能力能否匹配技术演进的速度。宋韵雅介绍了团队正在推进的一系列“价值审计”研究,除HKGAI开展的系统性审计工作外,团队正在进行的另一项研究将欧盟《人工智能法案》、中国算法治理政策及香港相关标准转化为可验证的操作性场景,并通过系统性输入扰动测试检视模型在不同法律与文化语境中的响应逻辑。她指出,该方法的价值在于其可重复性、跨司法区可比性,以及为监管者、法律学者与政策制定者提供可直接用于制度评估的实证依据。她同时介绍了团队正在搭建的AIGC治理整合式原型体系,利用人工智能增强技术监测媒体生态中的生成式内容扩散路径、风险标签与透明度表现,并为决策者与公众提供可视化、可互动的分析与治理工具。通过该体系,技术审查、制度对接与公众理解得以整合进同一治理框架,实现从识别风险到解释风险再到治理风险的闭环。最后,宋韵雅强调,人工智能的风险并非源于技术“过于智能”,而在于其深度嵌入社会制度、传播结构与价值体系后所产生的复杂系统效应。未来人工智能治理的关键,不仅在于提升算法安全性,更在于推动社会文化与制度设计的系统性重塑,使治理体系真正具备面向技术未来的动态适应能力。

宋韵雅(Celine Yunya Song)发言

圆桌讨论环节,与会专家围绕人工智发展即将陷入停滞的观点、如何保障人工智能的发展能够惠及更多数人的利益、如何建立更加有效的人工智能和具有国际共识的“人工智能安全监管基准线”等前沿问题展开了讨论。龚克指出,在展望发展前景的同时,人工智能的快速发展不可避免地伴随着风险挑战。这些风险源于技术本身的不成熟、不当使用问题,以及可能对社会和环境产生的负面影响。他强调,在推进"人工智能+"行动过程中,必须统筹发展与安全,审慎管理各类风险,确保技术发展始终服务于人类福祉。珍妮・玛丽・帕特森(Jeannie Marie Paterson)认为,当前学界对超级人工智能失控问题的担忧和恐惧分散了我们对生态系统中权力和财富分配问题的关注,如其团队所关注的问题,人工智能正在以简化的方式影响青少年对世界的理解。针对“智能鸿沟”问题,她认为以中国、澳大利亚、新加坡为代表的国家有义务承担国际责任,通过援助全球南方国家算力、数据等领域设施建设、提高全球南方国家人民“智能素养”等多种方式,确保世界能够共享人工智能产生的技术红利。陈西文(Simon Chesterman)分享到,过去几年新加坡始终在监管不足与监管过度间寻求平衡:过度监管将导致创新资源外流,监管不足则需承担经济领域的风险,因此在经济上倾向适度宽松的监管,在社会政治文化领域则倾向通过监管规避短期风险。人工智能的不确定导致了全球行动困境,当务之急是通过构建新框架、提升确定性和扩大参与度来建立有效的全球治理机制。宋韵雅(Celine Yunya Song)认为,理解普通人真实的人工智能使用体验与心理反应至关重要;技术普惠不仅仅是基础设施的覆盖,更关乎文化认同、心理安全与社会信任的共同建构。她指出,普惠智能在年龄差异、教育背景与学科经验上仍面临显著挑战,因此要真正实现"同筑同享"并有效弥合数字与智能鸿沟,必须依靠技术设计、教育体系与治理机制的协同合作。

圆桌讨论环节
2025人工智能合作与治理国际论坛为期两天,设有1场全体会议、7场专题论坛,邀请了来自中国、澳大利亚、新加坡、美国、英国、新西兰等人工智能治理领域的专家学者近100人出席论坛。来自包括清华大学、新加坡国立大学、香港科技大学、联合国大学、中国科学技术大学、南开大学、澳大利亚国立大学、皇家墨尔本理工大学、查尔斯·达尔文大学、迪肯大学、伊迪斯·科文大学等高校,以及联合国开发计划署、清华大学人工智能国际治理研究院、新加坡国立大学人工智能学院、AI Singapore、Globethics、清华大学战略与安全研究中心、人工智能治理研究中心(清华大学)、清华大学中国科技政策研究中心、清华大学科技发展与治理研究中心、清华大学全球可持续发展研究院、中国科学院科技战略咨询研究院等机构的资深专家、青年学者,以及来自微软、谷歌、中国电信、奇安信、元戎启行、狮心资本等知名企业和投资机构等高层管理人员,就如何开展人工智能治理国际合作进行了精彩报告和深入研讨。





内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢