点击蓝字

关注我们



2026年2月,印度将主办“人工智能影响峰会”,这将是人工智能峰会首次在全球南方举办。随着峰会临近,围绕国际人工智能优先事项的讨论持续升温,印度也被认为将在塑造下一阶段行动方向方面发挥关键作用。



https://www.csis.org/events/exploring-global-ai-policy-priorities-ahead-india-ai-impact-summit


CSIS(战略与国际问题研究中心)瓦德瓦尼人工智能中心与“印度与新兴亚洲经济讲席”于2026年1月30日联合举办“印度人工智能影响峰会前瞻:探讨全球人工智能政策重点”。本次会议汇聚人工智能领域的重要声音,围绕印度在即将到来的峰会中的目标,以及专家对全球人工智能政策未来走向的判断展开交流。


本文为战略与国际问题研究中心(CSIS)“在印度 AI 影响力峰会前探讨全球 AI 政策优先事项”系列活动的第二场专题讨论实录,由Aalok Mehta主持,邀请Dean Ball、Russ Headlee与Shana Mansbach展开对话。讨论在欧盟《AI 法案》推进实施、美国州层面立法与新一届政府监管取向变化,以及韩国、日本等国制度布局加速的背景下,聚焦“AI 影响力峰会”将如何影响全球治理轨迹,重点分析监管碎片化带来的合规与创新成本,如何通过信任基础设施与独立验证提升可执行性,智能体加速扩散下的安全与标准化需求,以及产业界如何在治理与创新之间实现更可持续的平衡,并探讨面向全球南方的用例展示、双边合作与投资如何推动 AI 驱动的发展议程。

本次讨论的核心要点如下

· AI治理进入“多地并行、快速迭代”的新阶段

技术演进很快,监管也在同步加速,各地区、层级呈现密集变化。


· 印度“Impact”叙事与“务实落地”被视为关键抓手

强调实际用例、创新采纳,并把成果扩散到发展中国家;同时把印度塑造成其他发展中国家的可借鉴样板。


· 全球AI治理讨论高度割裂且监管碎片化成本上升

不同地区关注点不一,导致对公众、企业和监管者自身都产生成本,全球南方的监管能力约束尤为突出。


· 德里峰会的价值在于“定议程”并推动互操作性

不太可能达成全球大一统方案,但可以围绕一种能提升跨境可兼容/可对接的治理框架聚合共识,降低碎片化摩擦。


· “独立验证/第三方审计”被提出为跨国信任基础设施的核心机制

政府定义想要的社会结果,由技术型第三方去验证;“实验室不该自己给自己打分”被认为能提升可信度并跟上技术迭代。


· 框架能否运转取决于激励相容

仅靠签署文件不够,必须让各国与各方都有动机参与并遵守,才能形成对公众、企业、创新与监管者都“划算”的信任架构。


· 治理“思维方式”的分歧比条文本身更棘手

一种路线试图用高度抽象、包罗万象的全AI风险管理框架;另一种路线主张聚焦可执行、可落地的具体问题,并批评把所有AI或所有风险一锅端会难以实施。


· “智能体(agents)”扩散被认为是近期开局变量,急需安全与责任使用标准

智能体将能长时间运行、承担完整或大比例人类工作;讨论强调要尽快形成面向部署者/开发者的技术标准,覆盖渗透风险、提示注入、鲁棒性与负责任使用等。


· 国家/地方与多边治理的边界需要分层处理

部署侧允许各国基于文化与监管传统保持差异;但对开发者义务或前沿研发的管辖权更敏感,材料中对过度多边化监管前沿研发持谨慎态度;与此同时,也承认某些红线领域更适合用类似军控/不扩散逻辑的硬约束来谈。


· 可持续成果更可能来自“具体用例+产业落地+能力建设”,而非口号式联合声明

一方面讨论“承认峰会热—会后淡常见”;更可持续的往往是企业侧承诺、双边合作与可执行项目。另一方面在“幻觉或输出有效性”问题上,主张不要追求抽象的模型永不犯错,而要在高风险场景设定可检验的结果指标,并补齐政府与社会的技术能力。


(全文内容为访谈翻译,文内观点不代表清华大学人工智能国际治理研究院立场)



Aalok Mehta:大家好,欢迎各位从咖啡休息时间回来。希望截至目前,大家都觉得今天的议程富有收获。我是Aalok Mehta,近期刚加入CSIS,担任瓦德瓦尼AI中心新任主任。非常荣幸今天能邀请到几位重量级嘉宾,一同探讨AI治理及其与印度AI峰会的交汇点。


我们都能看到,AI技术正高速发展,而过去一年中,AI治理与监管领域也在快速演进。例如,欧盟《AI法案》已正式生效,进入实质实施阶段;美国多个州也出台了新的相关立法,加利福尼亚州的举措尤为引人注目。美国新一届政府在AI监管上的思路,与上一届相比有明显不同。此外,韩国、日本等国家也纷纷推出了各自的国家级AI框架与法律。


今天我们要探讨的是,后续全球AI治理将走向何方,印度AI峰会可能会如何改变相关讨论的方向,或是影响全球治理的发展轨迹。接下来,我会请各位嘉宾先做简要自我介绍,再围绕同一个开场问题分享见解,也期待之后的深入交流。


Aalok Mehta


Aalok Mehta:首先有请Russ Headlee发言。他是美国国务院网络空间与数字政策局的高级局负责人。我们刚刚聆听了印度驻美大使和法国驻美大使分享他们对峰会的期待。我也想请你从美国政府,尤其是国务院的角度,谈谈你们希望峰会取得哪些成果,在AI治理方面又有怎样的期待?


Russ Headlee:谢谢你,Aalok。也非常感谢CSIS和瓦德瓦尼中心的邀请与承办,能来到这里我深感荣幸。更荣幸的是,身边坐着的Dean Ball是该领域极具影响力的思想引领者。


Russ Headlee


我目前负责网络空间与数字政策局的工作,算是赶上了一个颇具意义的时间节点。我于7月23日上任,这一天在特朗普政府的AI政策史上有着特殊的象征意义——当天总统发布了“美国AI行动计划”。而Dean正是这份计划的主要设计者之一,所以在很多方面,我都直接受益于他在政府任职前几个月打下的良好基础。


在我看来,印度AI影响力峰会确实提供了一个绝佳的交流机会。印度在峰会上的目标,与“美国AI行动计划”中的诸多核心主题高度契合。他们强调“影响力”,注重可落地的应用场景,尤其重视向发展中世界推广AI应用,这与行动计划的第三支柱理念不谋而合。


几个月前,印度电子与信息技术部(MEITY)的Krishnan秘书在Greg的播客中,向美国受众阐述了印度的相关叙事框架。我当时听到的很多观点,都与我们行动计划中的思路极为相近。当然,这或许有外交表达的考量,他非常善于沟通,面向美国受众时显然会采用更易被理解的表述方式。但我也坚信,他在强调“实践应用、创新与采用”这一路线时,态度是相当真诚的。去年12月我前往印度参加峰会筹备活动时,也听到了同样的核心重点。


而且从印度国内的实际监管举措来看,他们确实兑现了这些说法:对监管采取相对谨慎的态度,更侧重于鼓励创新与推动应用落地。因此,我们会重点关注这些方面,也希望印度能成为众多发展中国家的示范案例,助力它们构建适合自身的监管框架。在我们看来,全球范围内确实存在一些不够合理的监管范式,而印度在不少方面堪称相对优质的范例。


Aalok Mehta:感谢你的分享。接下来有请Shana Mansbach发言,她是Fathom的战略与传播副总裁。Fathom长期关注AI监管与治理,以及AI信任体系的构建。Shana,这次德里峰会是此类重大峰会首次在全球南方国家举办。我很想听听你的看法:这将如何改变未来全球AI治理的相关讨论?


Shana Mansbach:好的,首先感谢邀请。对我而言,这场讨论格外有意义,因为身边坐着一位曾在我现在任职的机构工作、后来又回归的同事,还有一位现在在我之前工作过的国务院任职的同事,所以有种“回家”的亲切感。


Shana Mansbach


不过,我想先给这场讨论泼一点冷水。过去三年我们举办了不少峰会,但如果仅从AI治理层面的实质成果来看,说实话并不理想。因此,我希望大家对这次峰会能达成的目标保持理性预期。


但不可否认的是,峰会确实是设定议程的重要平台。主办国拥有强大的主导权,可以决定讨论的基调和重点。所以这次峰会在德里举办,意义非凡。


目前,全球关于AI的讨论呈现出高度割裂的状态:在布莱切利聚焦安全议题,在巴黎探讨投资相关话题,韩国也有自己的重点方向,而现在印度峰会的核心是“影响力”——多数人将其理解为应用层面,也就是AI真正走进人们生活的具体体现。


从国家层面来看,讨论焦点也十分分散:华盛顿强调加速AI发展;布鲁塞尔侧重AI安全;中国在很大程度上聚焦于自身的治理逻辑,这里我点到为止;而广大发展中国家,若要概括其核心诉求,更多是关注AI技术的获取能力与应用包容性。


因此,我认为追求所谓的“大交易”,让所有国家在同一套政策上达成一致,既不现实也无必要。每个国家都拥有主权,有着各自的治理模式。但监管碎片化确实会带来实实在在的成本:对公众而言存在使用与信任成本;对企业来说,尤其是小公司和小型开发者,他们没有大规模的合规团队,难以同时适应多套不同的监管制度;对监管者而言,监管机构本身也面临能力与资源的约束,这一点在很多全球南方国家表现得尤为突出。


所以,德里峰会的机遇在于,各国无需达成大一统的方案,而是围绕一种治理框架形成共识,让整个体系具备一定的互操作性。我设想的是一种技术层面的“骨架”,能让跨境合规变得更清晰、更易理解。


Fathom,我们非常关注“独立验证”这一理念。我之前已多次提及,在座各位或许也有所耳闻,但我仍想再次强调:这一思路最早的关键推动者之一正是Dean Ball,甚至可以说他是这一想法的奠基者之一。


其核心做法是:政府无需事无巨细地规定AI研发与应用的具体过程,而是明确希望达成的社会目标。比如印度可以定义什么是“理想状态”,美国、法国也可以各自定义。之后由具备专业技术能力的第三方审计机构,来验证这些目标是否真正实现。


背后的逻辑很直白:不能让实验室自己给自己的成果打分。这对于建立AI信任体系至关重要,也更能跟上技术快速迭代的节奏。我们认为,从技术层面来看,这种可操作的架构已经具备实现条件。


最后我想说,框架只有在各方都有参与动力时才会真正发挥作用。核不扩散条约之所以能有效运转,并非仅仅因为“重要人物签署了文件”,更核心的是各方的激励机制在一定程度上实现了对齐。因此,要让这次峰会取得成功,就需要找到一种各国都有动力遵守的框架,它能构建起信任体系,同时为公众、企业、创新以及监管者本身带来实实在在的好处。


Aalok Mehta:非常精彩的分享,谢谢。最后有请Dean Ball发言,他是美国创新基金会的资深研究员。Dean,我想追问你之前提到的监管碎片化问题。美国国内对州层面的碎片化监管存在诸多争论,尤其担忧这会给小企业带来沉重的合规负担。在国际层面也是如此,各国可能会制定出不兼容甚至相互冲突的监管制度。你希望这次峰会能在缓解这一问题上取得哪些具体进展?


Dean Ball:谢谢邀请,也感谢两位刚才的溢美之词,实在有些过誉了。我认为,监管碎片化不仅体现在法律文本或监管框架层面,更关键的是思维方式的碎片化。


Dean Ball


我们谈论AI政策,本质上是在探讨未来10到15年里,几乎所有政策与经济活动的监管模式——因为AI是一种极具通用性的技术。


目前存在一种趋势,主要源自欧洲,也包括美国部分州以及韩国、日本等地区,试图为“所有AI”建立一套几乎覆盖一切的通用风险管理框架。但在我看来,这样的框架过于宽泛、抽象,导致“AI风险管理”这一概念本身庞大到几乎失去可操作性。


更明智的做法,是聚焦具体、可执行的措施,在关键方向上推进核心利益。这也是“美国AI行动计划”试图实现的目标,我认为这才是更合理的AI政策路径。


过去两年我一直有个口头禅:要对自己像对语言模型一样提要求。两年前“提示词工程”还很流行时,人们会说让模型先“深呼吸”、一步步思考,这样能得到更好的结果。我觉得我们在制定AI政策时,也应该秉持这样的态度。


举个具体的例子:美国加州出台了一项名为SB 53的监管框架,本质上是一部透明度法案。该法案认为前沿AI存在几类特定风险需要重点关注,但它并非要监管所有AI应用——比如人脸识别、自动驾驶、无人机等领域并未纳入其中,而是将注意力集中在“前沿语言模型”这类特定系统上。


同时,它也并非覆盖所有用途,而是聚焦少数特定场景。背后的逻辑是:有可信的威胁模型表明,这些系统可能会加剧严重的灾难性风险。而政府最核心的职责之一,就是降低这类灾难性风险。


这里主要涉及三大领域:生物安全、网络安全,以及一种可称为“模型自主性”的风险。这个术语可能尚未完全进入主流政治话语体系,但直白来说,它指的是在前沿实验室中,利用AI来自动化开展AI研究本身的行为。


因此,我们需要更深入地了解实验室如何评估这些复杂风险、如何采取缓解措施。SB 53的核心思路,就是让相关流程更透明,并建立结构化的事件报告等机制。


与之形成对比的是科罗拉多州的SB 205算法歧视框架,该框架在一定程度上借鉴了欧盟《AI法案》的思路。这类框架试图监管所有AI应用中可能出现的歧视问题,而这实际上覆盖了几乎所有现代软件——未来几乎所有经济活动都离不开软件支持,如此宽泛的监管范围,落地执行难度极大。


这两个案例代表了两种截然不同的政策心态。很多国际民间组织(美国国内也有类似情况)仍然倾向于“将所有潜在风险一次性纳入监管,建立一套通用框架涵盖一切”。但我认为这种思路是行不通的。


这并不意味着SB 53完美无缺。特朗普政府内部也有不少人并不认同SB 53,这些都可以进一步探讨。它代表了一种更聚焦、更具可执行性的思路,我认为我们需要更多这样的政策探索。


另一个值得关注的重要主题,是智能体的快速扩散。所谓智能体,是指能够连续运行数小时、完成完整工作流甚至接近胜任完整岗位工作的AI系统。这并非遥远的未来,而是正在发生的现实,并且到今年年底会变得更加普遍。


那么,智能体的安全性如何?是否容易被攻击?对提示注入等安全问题的鲁棒性怎样?部署者如何才算“负责任地使用”智能体?这就好比我们对驾驶有基本的安全规范:不酒驾、系安全带、保持注意力集中等。但目前,我们对智能体几乎没有这类基本的使用标准。


实际上,完全可以制定一些真正意义上的技术标准——类似美国国家标准与技术研究院(NIST)的标准形态,帮助部署者和开发者构建更安全的智能体系统。我希望这次峰会能推动这类具体、可落地的事项取得进展,而不是停留在抽象框架的哲学探讨上。


Aalok Mehta:我想追问一下:如果我们采取这种分块处理、分阶段治理的思路,是先在国家层面推进,再逐步汇总形成国际性共识更有效?还是从一开始就走多边路径,再向各国落地实施更合适?


Dean Ball:答案可能是两者并行。涉及AI部署的规则,比如企业、银行、医院等机构如何使用AI,这类规则往往需要本地化调整。不同文化、不同监管传统下,允许存在差异——比如印度的医院与美国明尼苏达州的医院,监管方式不同是很正常的。


但如果涉及对AI开发者施加义务,也就是直接约束AI系统的研发过程,情况就复杂得多,需要更清晰的管辖权界定。在美国,我经常强调:这类监管事务最好由联邦层面统一推进,而不是让50个州各自出台一套规则来监管AI研发。可惜的是,美国目前确实在朝着“拼布式”监管的方向发展,我们还需持续观察。


放到全球层面,我倾向于反对由多边机构直接治理前沿AI的研发活动。最好不要出现那种直接监管OpenAI、Anthropic、Google或Google DeepMind等企业的多边监管机制。如果你想监管前沿AI研发,前提是你本国拥有前沿AI产业;否则,就应该让技术诞生地的国家来主导相关监管事务。


我还发现一种常见现象:很多人一边倡导“主权AI”,一边又想监管来自其他国家的技术,尤其是美国企业的技术;同时还声称美国的技术影响力侵犯了他们的主权。在我看来,这其中存在明显的逻辑矛盾。监管美国企业,本质上更多应该是美国的内部事务。这将是未来长期存在的核心矛盾。或许最终会形成某种国际协议,但至少在现阶段,我对这类多边监管机制持保留态度。


Shana Mansbach:我能补充一句吗?


Aalok Mehta:当然可以。


Shana Mansbach:我理解你的观点,但我认为确实存在一些领域,AI监管可能需要采用更传统、更具强制性的“硬法”方式。比如一些红线问题,其逻辑更类似于核不扩散:例如AI系统被用于战争中,对人类目标进行自动化定位与打击。这类具有不可逆性、背约代价极高且在一定程度上可验证的领域,特别适合通过外交谈判形成共识。


我甚至想以1993年的《禁止化学武器公约》为参照:人类历史上确实存在一些大家普遍认同“极其糟糕”的行为,AI领域也不例外。因此我想问问各位:这是否是适合通过外交协议来规范的议题?我倾向于认为,完全可以列出一组AI领域“可以做”和“不可以做”的明确事项,而这在AI的大多数其他领域是很难实现的。


Dean Ball:你所说的更多是AI的“使用方式”,而非“研发活动”。比如美国和中国已经达成共识,不在各自核武器系统的实际控制环节引入AI。类似这样的事项,各国达成共识是完全合理的。生物安全领域也是如此,网络安全领域或许也适用。我支持为这些领域制定共同标准。


但如果你的出发点是,想要细致干预几千公里外另一个国家企业的内部经营事务,那我认为这是不应该做的。作为美国人,我很庆幸特朗普政府首次较为坦率地向世界表明:我们不认同这种做法。可能我的表述有些直白,但核心意思就是如此,当然也可以用更委婉的方式来传达。


Aalok Mehta:Russ,我想借此追问你:特朗普政府采取了更偏向去监管化、更强调创新的路线,这与拜登政府的思路明显不同。你们在双边或多边场合与其他国家沟通时,会如何阐述美国的相关愿景?你们希望在这些场合推进哪些讨论或达成哪些共识?


Russ Headlee:我们的监管立场,在外交层面带来了一个现实挑战:作为外交官,如果你前往某国外交部递交照会时,手里拿着800页的监管文本,告诉对方“你只需把‘国家名称’替换一下就能直接照搬”,这种做法在外交上确实非常省事。欧洲在这方面做得很出色。


即便在某些情况下,他们的监管可能已经限制了本土产业的发展,导致没有多少成熟产品可输出,但他们仍然非常擅长输出自己的监管框架。现在这也逐渐成为一个需要警惕的现象——因为欧盟部分成员国已经开始放缓《AI法案》的落地节奏,开始意识到过度监管带来的二阶效应。在巴黎会议上,美国副总统Vance就曾表示,欧洲在产业刚起步阶段就实施过早、过严的监管,反而制约了产业的成长空间。


这给了我们一个重要的沟通切入点,因为很多国家在考虑AI监管时,往往会首先参考欧盟模式。


当然,被借鉴的不仅仅是欧盟。Dean提到了韩国,我最近也去过越南。越南国会刚通过的一部AI法律,在某些方面就参考了韩国的做法。


我有个木工爱好,木工行业里有句常用语:“量两次再下刀”,因为一旦切割失误,就很难挽回。很多人小时候给父亲打手电帮忙做木工时,或许都听过这句话。我认为这一理念也非常适用于AI监管:建议采取渐进式路径,充分评估后再采取行动。欧洲在这方面,在某种程度上可以说是一个警示案例。


回到印度的话题,我认为印度在国内采取的监管路径值得肯定。它并非完美无缺,但总体上相对渐进、审慎。很多国家都能从这种做法中获得启发。


Dean Ball:Russ说得非常好。我也经常用“量两次再下刀”这句话来强调AI监管的审慎性。我想补充的是:我们正处在人类历史上一个极其关键的时刻。技术发展划出了一条无法回头的分界线,我们正在跨越这条线,而且无法停止脚步。


我们并不真正清楚这意味着什么。很多未知的可能性足以让人深感不安,因为我们不知道未来会走向何方。因此,我在参加各类峰会、与外国政府交流时,最想传递的观点是:请多一份克制,多一份谦卑。我们未知的东西实在太多了。


现在贸然采取激进的监管措施,把事情搞糟的概率,远远大于此刻恰好做出完全正确决策的概率。历史的走向充满不确定性,任何细微的举动都可能改变轨迹。所以,在AI监管上应尽量保持谨慎克制,像芭蕾舞者一样小心翼翼。这就是我最核心的诉求。


Shana Mansbach:听起来我们确实需要一种可持续、可迭代、灵活的独立验证框架。


Aalok Mehta:Shana,我想把话题拉回“信任”这个核心议题。我们看到,美国、欧洲以及世界其他地区,在“信任”问题上存在明显差异——既包括对AI技术能否改善生活的信任,也包括对政府能否采取适当行动(包括合理监管)的信任。而印度在这两方面的信任度似乎都更高。你能谈谈可能的原因吗?其他国家能从印度的经验中学到什么?


Shana Mansbach:我认为,如果问“印度式的信任能否复制”,答案是非常困难。因为印度的制度信任水平本身就高于美国。


我先分享一组令人惊讶的数据:只有约14%或15%的印度人,对AI技术的担忧超过兴奋;而在美国,担忧超过兴奋的人占了多数。此外,约89%的印度人相信政府能做好AI监管工作。美国的朋友们可以想象一下,89%的人信任政府去监管AI,这在美国几乎是不可能出现的数字。坦率地说,美国人对政府做好大多数事情都缺乏信心,在AI监管方面,只有约44%的美国人信任政府。


这背后有几个关键因素:首先,在美国,人们接触和讨论AI的广度与深度都更高。当被问及“是否听说或阅读过很多关于AI的信息”时,美国的比例明显高于印度,这就存在“议题显著性”的差异。但更根本的原因,还是两国制度信任的基础不同。而且当一个国家已经大量普及某项技术后,再想重建公众对该技术及相关监管的信任,难度会大得多。


我认为美国和其他国家可以借鉴的是,构建一套“信任基础设施”。很多人问我,是更支持AI安全还是更支持AI创新,我的回答是两者都支持——信任是将两者紧密结合的关键,它们本质上是一体两面。


人们需要对AI系统有信心,相信它安全、可靠、具备足够的安全防护能力,并且能实现宣传中承诺的效果。这种有依据的信心,对AI创新至关重要,尤其是对小企业而言;同时对监管者也意义重大。而独立验证、第三方审计,正是构建这种信心的有效手段。


AI产品层面的可信度提升后,也会反过来增强公众对政府监管能力的信任。目前我们在这方面还有很大的提升空间。很多人现在不愿意使用AI产品,核心原因就是不确定它是否真的靠谱。


Aalok Mehta:谢谢分享。我们再提最后一个问题,之后争取留一些时间给现场观众提问。大使们提到这是一次“影响力峰会”,核心聚焦于AI的实际影响力。我们也注意到,以往的峰会往往存在这样一种模式:峰会前热度高涨、峰会期间宣布诸多事项,但峰会结束后,相关工作推进的动力逐渐冷却,最终很难追踪成果落地情况。那么对于这次峰会,你们希望建立哪些机制来维持推进动力,让峰会成果更具延续性?同时,这是首次在全球南方国家举办此类峰会,很多人担心全球南方在AI治理讨论中长期缺席,你们希望有哪些安排能让它们持续参与其中?


Russ Headlee:我认为,如果印度能扎实做好“AI应用场景展示”这项工作,将极具价值,也能与我们的“美国AI行动计划”形成互补。我们外交官在与发展中国家沟通时,经常听到这样的诉求:“我们对AI很感兴趣,也想制定相关战略、把事情做好,但不确定哪些AI应用场景最适合本国国情。”


印度在这方面完全可以树立标杆——因为印度已经在多个领域成功应用了AI技术,这些实践经验对其他发展中国家具有重要的参考价值。而且这也与“美国AI行动计划”的理念相契合,因为美国的云服务商以及整个AI技术产业链上的企业,在印度已经有了非常深入的布局。


这也让美国代表团前往德里参加峰会时更有基础:印度的监管姿态虽不完美,但至少具备足够的可行性,使得Google、Microsoft、AWS等企业纷纷在印度投入数百亿美元级别的资金,助力印度实现其AI愿景,将战略转化为对公民生活和经济发展的实际影响。


因此,从美国以及美印双边合作的角度来看,我们可以向那些将印度视为榜样的国家展示:如果你希望引入全球最顶尖的AI技术能力来实现自身发展目标,印度的很多做法都值得借鉴。


Dean Ball:我同意Russ的观点,印度的监管定位非常明智。我之前关于“监管他国企业”的批评,主要是针对欧洲的一些做法,并非针对印度。确实有部分国家存在扩大监管范围的倾向,我认为这种做法并不明智,但印度总体上保持了克制与审慎的“轻触式监管”原则。


印度还有一个长期优势:在技术扩散方面能力突出,尤其擅长将先进技术快速推广到整个经济体中。目前,我们对于“如何负责任地使用如此强大的AI技术”仍然只有模糊的概念,相关的直觉判断和抽象认知还不够成熟,但这些都会在实践应用中逐步完善。


凭借其庞大的市场规模和强大的技术扩散能力,印度很可能成为智能体推广与应用的世界级领导者,进而也会成为制定智能体安全与负责任使用标准的重要合作伙伴。这些标准的制定,很多可以通过自愿性的标准化组织来推进,这是一种相对传统且有效的技术治理路径。我期待这次峰会能在这类议题上,以渐进的方式推动取得实质性进展。


Shana Mansbach:我用更概括的方式来收尾:我非常希望我们能尽快终结那种虚假的二选一困境——即把AI创新和AI安全对立起来。如果你走遍全球就会发现,很少有人会认为“让AI体系更可信是一件坏事”。构建信任基础设施,既能促进AI的推广应用与创新,也能提升AI的安全性。


但目前世界上存在一种阵营化的倾向,仿佛只要你强调“AI安全”,就意味着你反对创新,甚至反对某个特定国家。我觉得这种观点非常荒谬。实际上,你完全可以同时追求AI创新与AI安全。


当然,这需要找到真正的平衡——不能站在极端立场上,却声称自己兼顾了两者。只要采取克制、平衡、灵活、可迭代的监管路径,就能够构建起既有利于安全,又能促进应用与创新的信任基础设施。


Russ Headlee:刚才我们的回答可能在一定程度上回避了你提到的“峰会后续机制与可交付成果”这个核心问题。现实情况是:如果我是印度的公务员或外交官,现在大概80%到85%的时间都在围绕峰会成果做筹备工作。


但很多真正“可衡量、可落地、可追踪”的目标,未必适合写进峰会声明或领导人讲话中——因为这类文件更偏向宏观层面,重点强调愿景与方向。因此,“峰会热度衰减”在某种程度上是一种自然现象。


从美国的角度来看,我的判断是:这次德里峰会将会有大量美国企业参与,可能会发布一系列合作承诺与合作项目。虽然企业承诺不可能100%严格按原计划兑现,但总体而言,这些合作大概率会持续推进。


对发展中世界而言,一个重要的信号是:很多真正能落地的AI相关行动,最终往往是通过具体项目、双边合作、企业间合作来实现的。我预计,德里峰会期间将会有一些极具说服力的案例展示,来证明这一点。

现场问答

观众:谢谢各位嘉宾的分享。监管者,尤其是监管机构,往往只能在企业所在地行使管辖权。但AI系统是全球部署的,一旦相关防护措施失效,就可能产生全球性影响。面对AI的幻觉问题与输出有效性问题,我们该如何降低相关风险?


Dean Ball:我结合一点政府工作经验来回答这个问题。我们在起草“美国AI行动计划”时,也讨论过类似的议题。当时有一项行政命令被称为“反觉醒AI行政命令”。特朗普总统在竞选时曾表示,希望阻止AI模型出现自上而下的意识形态偏见。我们内部也曾讨论过如何实现这一目标。


但问题在于:理论上,你可以制定一份完全违宪的行政命令,规定“AI必须只讲真话、没有偏见”,然后由政府来定义什么是“真话”、什么是“无偏见”。但这不仅违宪,还违背了一个更根本的事实:人类几千年来一直在追问“什么是客观”“什么是真理”“什么是偏见”,至今仍没有令人满意的答案。我想,这类争论还会持续下去。


因此,我想反驳一个默认的前提:监管者不应该试图用一条笼统的规则来消除AI“幻觉”。如果你立法规定“会产生幻觉的AI模型不得在我辖区内销售”,那么逻辑推演到极致,就会变成“任何人都不能说话”——因为人类本身就经常在不同程度上犯错或产生想象,很多有趣的观点也往往带有一定的不确定性。


我更建议将问题具体化:针对你真正担心的应用场景,建立AI输出可靠性的标准或质量要求。比如,你担心AI在医疗诊断中出错,这是合理的;你担心银行因AI依赖历史数据而出现偏差,导致错误拒贷,这也是合理的。


当你将风险限定在具体的威胁模型与使用场景中,就会发现很多问题可以通过既有的监管框架来解决——比如反歧视法、消费者权益保护法等。而且一旦这样做,你会发现监管的重点通常不在于神经网络参数或矩阵运算层面,而在于更高层级、更具可治理性的抽象层面。


Shana Mansbach:我原本想强烈反驳你的观点,但当你把讨论聚焦到具体应用场景后,我表示认同。确实,AI的幻觉与偏见可能会导致现实伤害,政府有责任保护公众免受这类伤害。如果出现明确的问题,政府却声称“我们不会干预,所以不采取行动”,这是不负责任的。


但我想补充一个关键点:政府的监管能力存在不足。我们都曾在政府工作过,或正在政府任职。政府里有很多心怀善意的人,但AI技术的发展速度确实超出了政府现有能力的承载范围——我们缺乏足够的专业技术人员和资源来应对。


而在现阶段,最了解如何有效监管AI的人,往往集中在AI实验室里。因此,要提升AI治理能力,就需要从实验室之外的生态系统中培养技术人才,为他们提供更多选择。比如建立独立的验证机构、AI卓越中心,让这些机构在政府明确高风险用例后,承担起技术验证的工作。目前,这种技术治理能力在美国尚且不足,在世界其他地区就更显匮乏了。


Dean Ball:我只补充一点。你提到AI在医疗诊断中确实可能造成伤害,我愿意相信这一点。但我也敢打赌:在我们这场讨论进行的这段时间里,人类医生做出的严重误诊数量,恐怕比AI的错误要高出好几个数量级。那么,我们到底应该对哪个问题产生道德恐慌?


Shana Mansbach:我并不认为有人要求AI系统必须完美无缺。如果要设定AI的结果目标,我不会说“绝不允许出现偏差、绝不允许导致死亡”——那样的要求在数学上的唯一解就是“不部署任何AI系统”,这显然是荒谬的。


我认为合理的做法是:在高风险场景中,AI系统的表现至少不应比人类更差。这一要求不仅合理,而且是可以通过技术手段验证的。


Dean Ball:如果真要确立这样的标准,那么我们就应该投入大量资源开展“人类基线”研究:欧洲尤其应该鼓励大量年轻研究者进行实证与计量研究,系统衡量各类人类制度在不同任务中的错误率——比如医疗诊断、执法决策、政府行政决策等领域。


如果我们要以“AI比人类表现更好”为监管标准,就必须先清晰地了解人类在这些领域的表现到底有多差。但为什么我们至今没有系统性地开展这项工作?我反而想鼓励监管者优先推进这类基线研究。


Aalok Mehta:我们的讨论需要就此结束了。Russ,你最后有什么总结性的话想说吗?如果没有,我们就进入下一环节。


Russ Headlee:我们继续往下推进吧。非常期待这次峰会,也期待能在德里见到今天在场的很多朋友。


Aalok Mehta:好的。


(完)



内容中包含的图片若涉及版权问题,请及时与我们联系删除