点击蓝字
关注我们

人工智能的发展可能会造成新型的地区分化,这种分化源于人口、经济和治理体系等各方面不平等的相互作用。因此,这已不再是单纯的技术议题,而是涉及“人、经济、治理”三大系统的整体性挑战,任何一个环节的薄弱,都可能成为加剧不平等的入口。
11月28日上午,2025人工智能合作与治理国际论坛“人、经济、治理与人类发展”专题论坛在墨尔本大学成功举办。论坛由联合国开发计划署助理驻华代表张薇主持,清华大学智能法治研究院院长申卫星、清华大学公共管理学院院长朱旭峰,清华大学人工智能国际治理研究院副院长梁正、中国科学技术大学科技传播系副研究员周慎应邀参加专题论坛并作精彩发言。
张薇介绍到,联合国开发计划署即将于12月2日发布的《亚太地区人类发展报告——下一场大分化:人工智能为何可能加剧国家之间的不平等》。报告指出,人工智能正在以史无前例的速度扩散,但技术收益并不会自然均等,而风险往往首先落在准备不足的国家身上。最值得警惕的是“双重暴露(Double Exposure)”:许多发展中国家因缺乏算力、数据基础设施与有效治理框架等原因,难以共享人工智能发展红利;同时又要更早面对排斥效应、虚假信息与高能耗等冲击。为契合“普惠智能 同筑同享”的主题,本场专题论坛将致力于剖析人工智能地区分化的最新动态,探索切实可行的途径,确保人工智能促进而非阻碍人类发展。

张薇主持(图中)
申卫星提出,中国、美国、欧洲三方作为当前推动人工智能创新的主要经济体,采取了有所不同的人工智能战略。其中,美国主要以商业为导向,强调人工智能创新;欧洲作为全球人工智能立法的领跑者,更加强调监管,反映了欧洲希望通过将自身价值观念融入数据保护、人工智能等领域,从而引领全球数字治理变革的战略雄心。中国则选择了不同于美国和欧洲的“第三条路径”,试图建立一个包容性的人工智能治理框架,强调“智能向善”“以人民为中心”,希望在保护人民权利和国家安全的同时,推动AI技术的发展,不断寻求技术创新、个人权利保护与监管之间的平衡。例如,中国在《民法典》的编纂中明确提出了有关隐私和个人信息保护的条款,这些内容在后续的人工智能条款中在《中华人民共和国个人信息保护法》、《中华人民共和国数据安全法》等法律中得到了进一步规范,这些条法的推出和落实为当前时代的人工智能治理通过了重要帮助。

申卫星发言
朱旭峰指出,人工智能对社会发展的影响呈现出深刻的“双面性”。从积极层面看,人工智能作为一种革命性的信息技术,降低了信息知识获取的门槛,推动了知识与信息的普惠扩散。这种“技术赋权”有助于优化政策制定过程,提升公共服务效率,并最终服务于缩小社会权力差距、促进包容性增长的目标。但另一方面,人工智能作为一种强大的竞争工具,也可能加剧社会分化与不平等。技术革新已对就业市场造成直接冲击,出现劳动者抗议、罢工事件。与此同时,科技公司的市值却因此飙升,这可能导致投资者与劳动者之间、资本与劳工阶级之间的财富与社会差距进一步拉大。面对这一挑战,朱旭峰强调,政策制定者必须“主动作为”,当务之急是构建并强化社会安全网与技能再培训体系,帮助在技术变革中受损的弱势群体,确保他们能在新的社会形态中“生存下来”并找到新的立足之地。

朱旭峰发言
梁正指出,实现人工智能的“普惠性”需要做到两点:以包容性监管托底、以战略性投资托举,前者指人工智能应该关注如何使社会广泛受益,后者指通过推动AI技术更加可用、可及,从而更好实现普惠价值。实现路径:在早期阶段,可以考虑先将AI技术应用于企业内部与公共系统;在中长期阶段,通过企业、公共部门与社区之间更多的协同、合作,探索并发展出更普惠的服务模式。就治理方面而言,技术政策应从一开始就与监管框架结合,确保在创新与治理之间取得平衡。梁正特别提到,自动驾驶等技术的发展历程表明,许多人工智能应用会从最初的小众使用,逐步扩展至全民共享,风险治理的关键在于构建企业、监管部门之间的协同机制。要让技术进步最终更好地服务于多样化的公众需求,实现技术红利的公平分配。

梁正发言
周慎指出,数据并非单纯的原始资源,而是社会权力结构的映射。由于企业缺乏纳入弱势群体数据的商业动力,政府应从被动监管转向主动塑造,通过建立代表性数据机制以保障数据多样性,并在基础模型发布前引入面向边缘群体的包容性测试,将其作为黄金标准与激励依据。周慎认为,跨地域外包标注造成文化错配,数据主体与数据标注者之间存在鸿沟,因而要以多样性作为标注的第一性原则,强化标注员培训,采用交叉评估机制,并发展本地标注产业,缩短数据采集者与标注者的距离;政府部门还可以通过发布特定测试标准,披露数据清单等方式,提升模型数据模块化水平。

周慎发言
在圆桌讨论环节,申卫星提出在发展与安全之间寻找监管的平衡并不容易,他引用杰弗里·辛顿在上海世界人工智能大会有关人工智能是一只“幼虎”的比喻,认为随着AI技术的快速发展,监管者面临严峻的“科林格里奇困境”(Collingridge dilemma)。对此,申卫星建议监管者的规制应该扮演好“安全带”的角色,不应禁止人工智能在技术创新的快车道上行驶,而是保护好车里的乘客。朱旭峰认为,人工智能本质上是一个“能效工具”,可以用于追踪碳足迹,帮助节约能源、减少碳排放,提升对气候风险的适应能力。人工智能也可能影响人口结构与社会资源分配,在老龄化问题突出情况下缓解劳动力短缺,降低社会对人口数量的依赖,这为在资源紧张背景下重新思考人口政策与可持续发展提供了新的可能。当然,鉴于AI技术本身的高能耗需求,朱旭峰呼吁必须同步推动绿色AI的发展,发展高效算力,实现发展与公平、技术与环境的平衡。梁正强调,新兴经济体和发展中国家需要建立符合自身需求的人工智能治理框架,应当摒弃简单复制西方治理模式的做法,构建自主的人工智能发展路径。治理人工智能风险前,需先提升全社会的AI素养,通过教育和宣传建立基本认知。梁正认为,AI技术需要真正服务于减贫和发展目标,而非加剧全球数字鸿沟。周慎提出了“沟通—教育—监管”三位一体的人工智能治理思路,因为若缺乏社会基础和风险沟通,仅靠监管是无效的。南方国家既不能接受跨国企业的“资源榨取模式”,也不能停留在对西方框架的“被动合规模式”,而应构建以国家主权、集体权利和恢复性正义为核心的自主治理路径;要将庞大的市场、多元的数据层与劳动力视为谈判筹码,在人工智能研发早期参与规则制定,争取更公平的收益与话语权。张薇总结到,未来十年,AI会成为连接发展的“桥梁”,还是加剧不平等的“高墙”,关键在于我们是否能够让技术真正服务于人,这不仅是对全球治理智慧的考验,更是对全人类共同未来的选择。唯有以人为本,人工智能才能成为推动普惠发展与共同繁荣的真正力量。
2025人工智能合作与治理国际论坛为期两天,设有1场全体会议、7场专题论坛,邀请了来自中国、澳大利亚、新加坡、美国、英国、新西兰等人工智能治理领域的专家学者近100人出席论坛。来自包括清华大学、新加坡国立大学、香港科技大学、联合国大学、中国科学技术大学、南开大学、澳大利亚国立大学、皇家墨尔本理工大学、查尔斯·达尔文大学、迪肯大学、伊迪斯·科文大学等高校,以及联合国开发计划署、清华大学人工智能国际治理研究院、新加坡国立大学人工智能学院、AI Singapore、Globethics、清华大学战略与安全研究中心、人工智能治理研究中心(清华大学)、清华大学中国科技政策研究中心、清华大学科技发展与治理研究中心、清华大学全球可持续发展研究院、中国科学院科技战略咨询研究院等机构的资深专家、青年学者,以及来自微软、谷歌、中国电信、奇安信、元戎启行、狮心资本等知名企业和投资机构等高层管理人员,就如何开展人工智能治理国际合作进行了精彩报告和深入研讨。





内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢