点击蓝字
关注我们

人工智能带来前所未有发展机遇,也带来前所未遇的风险挑战。唯有采取各方共同参与的集体行动,才能在充分发挥人工智能潜力的同时,确保其发展的安全性、可靠性、可控性和公平性。11月27日下午,2025人工智能合作与治理国际论坛“从风险到应对:人工智能安全的集体行动”专题论坛在墨尔本大学成功举办。论坛由全球伦理网(Globethics)人工智能伦理负责人葆拉・加尔韦斯・卡利格罗斯(Paola Galvez Callirgros)主持,埃迪斯科文大学(Edith Cowan University)学习技术与创新经理拉特纳・马拉尔・塞尔瓦拉特纳姆(Ratna Malar Selvaratnam)、清华大学公共管理学院副教授陈天昊、微软公司(Microsoft)企业、对外及法律事务总监凯特・苏厄德(Kate Seward)、澳大利亚国立大学(The Australian National University)讲师泽娜・阿萨德(Zena Assaad)应邀参加专题论坛并作精彩发言。

凯特・苏厄德认为不能割裂地看待“人工智能风险”问题,而需要从“负责任人工智能”整体性的角度应对人工智能带来的风险挑战。苏厄德以生成式人工智能造成的“深度伪造”风险为具体案例,提出生成虚拟内容并非人工智能模型本身的问题,但是这些生成内容却可以造成诸如生成色情内容、金融犯罪和诈骗,甚至影响民主选举、破坏民主制度等重大风险。同时,“深度伪造”具有典型的全球性,国内使用者可以通过世界各国的模型制造虚假信息,没有一个国家或者机构可以独自消除风险。因此,相较于宽泛的禁止虚假生成信息的立法,在模型中嵌入“数字水印”等可供验证的元信息等技术手段可以更好地解决相关问题。苏厄德所在微软公司在相关领域进行了诸多探索,主张通过统一的国际技术标准共同应对深度伪造风险。基于深度伪造风险的案例,苏厄德强调,微软公司一直以“负责任的人工智能”为原则,在“基于风险防范的治理策略”基础上,同时关注人工智能模型的包容性、透明度等更多维度,从社会影响等更加复杂的角度应对人工智能产生的深远影响。

凯特・苏厄德发言
拉特纳·马拉尔·塞尔瓦(Ratna Malar Selvaratnam)指出,当教育体系的某些环节出现问题时,我们往往只看到技术层面的表现,却总是忽略制度因素。学生天然地信任大学的课程设计、管理系统以及运行机制。然而,当大学将生成式人工智能大规模纳入系统后,这些制度成为学生与人工智能接触的“环境基础”。因此,人工智能的风险不仅来自语言模型或工具本身,更来自人工智能嵌入教育系统的方式,以及学生在规则环境中与人工智能的互动方式,这些风险包括心理安全和社会安全。她通过开放与数字教育协会发布的关于人工智能与数据治理准备度评估结果发现,尽管高校的相关能力提升了近30%,但是学生运用人工智能的风险防范、资源获取不公平、透明度和责任机制建设仍然显著不足。

拉特纳·马拉尔·塞尔瓦发言
泽娜・阿萨德认为当前主要的安全问题是人工智能系统的快速部署跳过了严格的安全标准,致使相应必要的安全法规的缺失,以及严格的测试、评估以及验证环节不足。针对如何具体行动以应对人工智能安全问题。泽娜强调,有效行动必须始于对“人工智能”这一宽泛概念进行精确的界定与区分。她指出,“人工智能”是一个涵盖多种能力技术系统的广泛统称,有关安全的讨论需避免笼统化,而应采取具体、有针对性的方法。她指出,人工智能技术并非存在于真空之中,而是嵌入在已有基础设施和标准与法规体系之中。当前的核心问题并非完全无法可依,而是在于现有法规标准中存在未能覆盖此项新技术的“空白区”。因此,最迫切、最有效的行动并非从零开始创造一套全新的宏大法规,而是系统地识别这些空白,并以高度针对性的方式去填补它们。

泽娜・阿萨德发言
陈天昊指出了当前所面临的人工智能风险和应对方式。第一个层面的挑战是虚假信息和版权问题。对此需要通过法律途径强制要求标注信息,以此确保可追溯性,了解谁生成了什么(Who generate What)。第二个层面的挑战是大语言模型,特别当智能体按照大模型指令行动时,将对整个物理世界产生直接影响。对此需要通过规制来明确大型语言模型可以调动哪些工具(如智能体)。第三个层面的挑战是AGI(通用人工智能)。但AGI的具体定义和未来发展极不明确,可采取的有效方式是先集中关注具体场景(观察人工智能在物理世界中的应用),进而明确具体挑战和应对方式。

陈天昊发言
圆桌讨论环节,与会专家围绕人工智能安全的最佳实践、公共部门在人工智能安全治理中的角色、如何实现多利益相关方的治理合作等议题展开了讨论。凯特・苏厄德提出,人工智能并非渐进式发展的科学技术,公共部门很难独立完成人工智能的安全治理。如何根据技术的发展趋势准确识别针对特定目标群体的新型风险?如何将治理原则和目标转化为具体可行的技术标准?如何借助技术手段评估风险并采取有效措施?这些问题都需要公共部门和产业界的密切合作。苏厄德特别赞赏,包括澳大利亚在内的世界各国正在建立的“人工智能安全研究所”及其构建的“国际人工智能安全研究所网络”,认为这一模式是公共部门、产业界和学术界密切合作的良好示范,对于降低企业和监管机构之间的信息不对称、加强双方互信合作具有重要意义。拉特纳·马拉尔·塞尔瓦认为,高校既要在内部实现“对齐”,也要与行业、政府之间实现真正协同,课程改革与教育数字化转型必须与产业共同设计、共同投入,而不是让大学与行业处于各自孤立的体系中;与此同时,科技企业需要提供有利于学生、公平且透明的解决方案。泽娜・阿萨德特别强调本地化监管的重要性,她指出不同国家和地区在市场成熟度、技术应用阶段及政府实施能力上存在巨大差异。一个在某一区域被视为标杆的严格法规,例如欧盟的《人工智能法》,若不顾及当地的具体情况和执行能力,可能无法落地甚至产生反效果。因此,安全行动必须尊重并吸纳这种区域性“细微差别”,鼓励各司法管辖区发展与其市场现状和技术水平相适应的监管路径。陈天昊指出,智能体的快速发展降低了AI应用门槛,提高了虚假信息、数字复活等伦理与法律风险。未来的治理应从技术架构与制度规范两个维度协同推进:一方面应深化智能体的价值对齐机制,另一方面须构建规范引领、多方协同的敏捷治理框架,在鼓励创新与防范风险之间取得平衡,确保技术发展的公平与安全。





内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢