
独
家
观
点
世界人工智能大会(WAIC)于2024年12月正式推出首份刊物《WAIC UP!》,这是一部「AI时代进化指南」。我们邀请全球AI及跨领域的先锋力量,借由他们的独特视角,针对AI争议问题,带来一些反直觉、非共识的思辨观点。

本期围绕“超越:迫在眉睫的进程”这一主题,我们有幸邀请到清华大学文科资深教授、人工智能国际治理研究院院长薛澜,共同探讨AI治理如何突破传统框架,构建全球共治新范式。
薛澜
清华大学文科资深教授,现任清华大学苏世民书院院长
清华大学人工智能国际治理研究院院长,清华大学中国科技政策研究中心主任
国家战略咨询与综合评估特邀委员会委员、新一代人工智能治理专业委员会主任、经济合作与发展组织(OECD)科学、技术和创新顾问委员会委员
以下为薛澜独家观点的部分摘录:
政企猫鼠游戏已过时

“这要求我们监管模式发生显著变化,以适应人工智能领域的快速发展特征。”
/ 01
在很多情况下,技术发展所带来的风险不仅政府无法预知,企业同样无法预知,存在“共同无知”的现象。在这种情况下,政府与企业之间的关系可能需要发生变化。过去我们谈监管,常将政府比作猫,违反监管的企业比作老鼠,猫的任务是找寻并抓捕老鼠,而老鼠总想着去找有什么空子,试图钻空子。在这种互相防范的模式下,有什么风险,大家都不知道,那么我们可能会共同陷入风险大坑之中。面对这种情况,政府和企业需要从猫鼠对抗关系转变为合作关系。因为如果真正有什么风险,治理没有应对到位,对政府、企业都不利。此时,如果企业能够及时与政府沟通,并告知政府下一步的计划及目前识别到的潜在风险,而政府也积极与企业磋商,探讨如何规避这些潜在风险,如果无法规避,则探讨可能的应急措施,由此建立一个沟通协商的合作关系可能有助于更有效地防范风险。
破解AI安全认知迷思

“实际上,开源的确有可能带来一些风险,但闭源同样也存在其风险。所以,关键是如何合理权衡风险并采取有效的规避措施。”
/ 02
大家提到开源觉得可能会有安全风险,因为学习门槛降低了,这使得不法分子可能利用人工智能技术对社会造成危害。过去,他们可能没有能力开发这样的模型,但现在开源了,他们可以用较低的成本来学习并制造危害。这个问题确实存在,并且是可能的。但另一方面,我们也应该看到,闭源人工智能模型也不一定绝对安全。坦率地说,即便是闭源人工智能模型,高能力的不法分子真的要做坏事,也并不意味着不可能。
此外,由于采用开源模式,潜在的风险和问题可能更容易被发现和解决。开源意味着整个模型及其背后的问题将对所有人开放,这有助于社区和安全监管机构更早地识别并处理潜在风险。因此,在宏观层面,开源实际上可能更加安全。所以,闭源并不意味着绝对的安全,开源也不代表绝对的不安全,各自有各自的风险。关键在于如何找到更好的方式,规避可能因不法应用带来的安全风险。
人工智能离不开社会多元共治

“人工智能安全是一个全球性的公共产品,需要我们大家共同努力去构建和维护。”
/ 03
实际上,人工智能的发展并不仅仅是技术社群的事情,它对社会、国家的发展乃至国际竞争都产生了深远影响。因此,在涉及人工智能发展的重大决策时,我觉得需要各方主体的积极参与。
随着人工智能技术更广泛的应用,未来可能还需要进一步扩大利益相关方的范畴。
从更宏观的角度来看,人工智能技术的应用可能对全社会就业产生重大影响,并因此事关每个人。因此,如果我们讨论以何种速度推进人工智能技术的广泛应用,这实际上是一个重要的社会政策议题。可能需要政府部门听取各方意见,以合理、有序地方式推广人工智能技术,同时让社会各领域有足够的时间来适应和调整。因为这可能涉及到许多人失业,所以要考虑他们是否有足够的时间去学习新岗位的技能,并进行相应调整,而这些问题都需要我们社会多元共治。
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
来源 | 本文转载自“世界人工智能大会”,点击“阅读原文”获取更多内容
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢