点击蓝字
关注我们
薛澜
关键词:生成式人工智能 责任伦理 人机关系 伦理调适 协同治理

本文首发于《电子政务》
点击文末“阅读原文”可下载原文
生成式人工智能的迭代速度及新应用涌现不断刷新 着人们对其能力上限的想象空间。从流露“人性”的文本 互动,到文字、图片、语音、视频间的生成壁垒被打破, 生成式人工智能彰显了大模型知识系统的多重可能性。同 时也让人们意识到,人工智能正在蚕食着人类本以为独享 的“特殊领地”。生成式人工智能的不确定性、动态性、 同质性使现阶段的人工智能伦理与治理框架难以适应,有 必要探索可行的、可测的、有效的应对方案。一方面,我 们需要在加速创新和有序发展之间做出更具系统性和预见 性的研判。[1] 另一方面,AI伦理应更多地参与对行动的调 适,在进程中通过纠错、补足、约制等方式发挥引导和规 范作用。基于此,尝试在梳理生成式人工智能颠覆性技术 新特质的基础上,归纳其技术治理新挑战,运用责任伦理 视角切入探讨,将其作为弥合原则与行动、调节伦理与治 理的一种路径,提出基于多方主体关系、以责任伦理调适 为导向的应对方案,以期推进有为、有效、有益的生成式 人工智能善治。
在人工智能全球竞争日趋激烈的背景下,中国人工智能立法具有紧迫性。近年来,生成式人工智能的迅猛发展深刻影响着人类社会。根据经济合作与发展组织(OECD)的界定,生成式人工智能指可以创造新内容(如文本、图片、视频和音乐等)的智能技术。由于生成式大模型具有自主性、涌现性和快速迭代的技术特质,其带来的风险问题高度复杂,学界对人工智能风险预防的方式存在重大争议。有研究认为应采用基于风险的规制模式,也有研究提出应进行分领域、分场景的规制。采用何种风险规制模式直接影响立法条文的设计,也将影响风险规制的实际效果。欧盟《人工智能法》作为全球首部人工智能立法,采用了基于风险规制的模式。如今这种模式逐渐成为新技术风险治理的重要方法。国内有学者讨论基于风险的治理在个人信息保护领域的适用问题,也有学者讨论基于风险规制在食品安全领域的适用问题。
然而,国内针对如何将基于风险规制模式应用于人工智能风险治理的研究成果较少,对基于风险规制的理论溯源和分析也不够全面。鉴于此,本文以生成式人工智能风险治理为研究对象,剖析基于风险规制模式的历史渊源、概念内涵和制度价值,镜鉴域外采用基于风险规制模式的实践经验,结合中国人工智能风险治理现状与问题,就构建中国人工智能风险治理体系提出制度方案。
大模型技术原理基于大数据、优算法、强算力,依赖概率逻辑预测输出,输出内容、逻辑、结构、风格都 能够达到人类水平。 一方面,自回归生成模型、预训 练方法、人类反馈强化学习保证了生成效果,使之实 现从“代码理解”到“代码生成”和“代码优化”的过 渡[2];另一方面,由于太过出类拔萃,围绕大模型掀起 复杂情景中的适应性及复杂任务独立执行能力的代理(agenticness)讨论[3] ,折射出生成式人工智能的类人特质。整体而言,它表现出内容生成与效果涌现、人机交互与关联交织、模型同质与价值隐忧的技术新特质。
(三)同质性:模型同质与价值隐忧
模型同质往往是易被忽视的生成式人工智能技术新 特征。模型同质化主要反映在数据采集内容、模型建构 方法、语料训练过程的相似性。在训练层面,模型同质 表现为模型的同源性(大模型训练源自少数预训练模型 如BERT、RoBERTa等)和跨数据模态同质化[7];在应用方 面,主要表现为模型汇集诸多领域的横向同质化和同一 模型广泛用于下游任务的纵向同质化[8] 。信息茧房反映 出同质化特征的消极表现。有研究表明,舆论议题同质 性现象是普遍的,并不限于某个特定群体[9],加之网络 信息是模型训练的重要数据来源,使得生成式人工智能 模型同质化特征与舆论议题同质性现象易产生联动,加 剧同质化导致的消极后果。对个体而言,同质化会固化 价值判断,茧房效应便是例证;对群体而言,同质化会 激化不同价值间的对抗、冲突与震荡,进一步增加治理的复杂性。 一旦模型产生系统性风险,叠加动态性和不 确定性,便会大幅增加风险等级。
(一)速度上的步调难题:如何平衡发展和治理
当生成式人工智能迭代速度使得现有的技术条件已难满足安全可控时,我们便可以认为发生了步调难题。 所谓的步调难题即如何做到“两条腿走路”,维持发展与治理的平衡。该问题主要由于:一是技术发展的版本更新和迭代速度太快;二是相应治理手段具有一定滞后性,无法跟上发展节奏,出现治理的“真空地带”;三 是未等治理手段跟上,发展形势又增加新变化,造成新挑战。德勤发布的一份调查报告显示,技术呈现出的 指数级增长造成了一个时间性的治理挑战,过早介入可能阻碍创新,而过晚介入可能错失最佳治理时机。[10] 因此,步调难题是实现人工智能善治的首要难题。
(二)规模上的弥散效应:如何保障从无序到有序
大模型的使用具有全球性、多领域和用户多的特性,开源模式使其快速在全球范围内扩散,在规模上产生了 弥散效应。所谓弥散效应主要包括两个方面:一是使用上 的弥散,根据斯坦福人工智能指数报告,我国是使用人工智能最为频繁的国家之一。受访者中,每天使用的比例为 24%,而至少每周都会使用的比例高达了73%[11]。二是风险上的弥散,大模型的产业链条长、涉及环节多、行业覆盖广、涉事主体多使得任何单一机构或主体的管辖范围和 治理能力都难以应对相应风险[12],造成了风险弥散。弥散效应并非有组织、有规律的扩散,它展现出无序性,如何 保障从无序到有序是实现善治的客观追求。
(三)交互中的权责黑箱:如何实现责任的分配
动态交互特质不仅增加了应用中的不确定性,也模糊了设计和使用中的责任问题,制造了权责黑箱。新问题随着使用频次的增加和使用程度的深入而不断凸显。设计者 将训练好的模型投入市场,使用者在应用中生成新内容, 而对于生成的“产品”始终未有合理的定位,造成管理者 的认定困境和治理盲区。这一特质给治理环节中的各个主 体都制造了新麻烦,最显著的例子莫过于知识产权归属的 讨论。如果认定“作品”,可能引发侵权认定规则的全面 混乱[13]。它又关联到生成式人工智能主体地位的讨论,涉 及技术提供者、技术使用者、智能体三者的复杂关系。如 何在多主体参与的情况下打开权责黑箱亟待应对方案。
(四)调适中的价值冲突:如何明晰是非判断
伦理调适的目的在于调和价值对抗与冲突,相较于硬法的强制性,责任伦理以软法化解矛盾、明辨是非、中和冲突,以降低对抗性价值带来的风险。即使有人机对齐实践的开展,生成式人工智能仍易吸收和产生价值偏见表 达。价值偏见输出可能源于数据,也可能由于算法,还可能是使用中的人类偏见造成的。大模型拟人化引发的价值 问题无法以提升透明度解决,而是牵涉到认识缺陷,它使多元化偏见风险叠加。[14]尽管社会生活中也普遍存在着偏见和歧视,但人工智能可能会扩大它所造成的影响。[15]一来内容生产由专业技能向普遍技能过渡,技术赋能普通民众直接参与内容生产。二来信息传播渠道由主流媒体主导 向自媒体份额扩张过渡,使人们的信息获取渠道发生结构性变化。在这样的情形下,难免造成信息质量不高、偏见歧视表达泛化、价值宣导作用弱化,甚至意识形态问题的产生。如何调适价值问题是责任伦理介入的主要旨趣。
人类正在开发完全不同于生物系统的数字智慧模型, 它已经在常识方面表现得足够突出,也正在推理方面不断进步。技术的预后困境(prognostic predicaments)导致应用伦理的成效颇受质疑[16],也呼吁我们探索与现有硬法相适应,同时又具有预见性的软法措施,以适应当下生成式人工智能的发展。因此,善治应当始于对技术新特质的充 分认知和对困境与风险的精确掌握,依托现有技术条件, 探索“装好刹车再上路”的治理模式,回应步调难题、弥散效应、权责黑箱、价值冲突。责任伦理尝试在厘清各参与主体的基本责任的基础上,探索基于关系本体论的生成式人工智能敏捷与协同治理方案。
(一)从原则到责任:强调动机、行为、后果的责任伦理
运行机制、场景落地、风险预判和发展动力是伦理体系建立的职责所在。 [17] 可伦理原则往往是无牙齿 的[18],它与一般意义上的治理行动存在着鸿沟。 一般而 言,伦理对科技活动的调适存在原则层面、规范层面、 操作层面三个维度。[19] 因此,如何打通三个维度,便成 了责任伦理的首要任务。责任背后的价值条件是原则维 度的,而责任的主体性、指向性、内涵性、方法论、评价性都涉及规范和操作维度。因此,相较于伦理原则, 责任与行动之间的关系更为紧密。
首先,责任伦理是实践的方法论, 它指向行动,只有行动可能,动机、行为、后果才可能。伦理原则并不一定指向治理行动,原则到行动必须施加一个条件性前提。 伦理原则聚焦不同价值间的调和,而治理行动是利益相关 者关系的权衡。责任伦理旨在处理心志伦理导致的动机与 后果间的矛盾,强调动机负责、行为负责、后果负责,是逻辑连贯地整合了起因、过程、结果三位一体的伦理实践 指引。尤其在面临不可预测、不可逆、且后代可能为之付出代价的隐患时,小心谨慎便成为比勇敢更高一级的德行。[20]信奉责任伦理需要考虑行动之后果,从而将行动获 得实现的机会以及结果一并列入考虑。
其次,责任的担负者是发挥不同角色的行动着或行动 了的主体。责任伦理学家约纳斯认为,责任的现实基础是自然,责任的本质是担忧,责任的承担者是人,责任的特 征是非交互性的[21]176-182。虽然约纳斯关于责任的论述颇有洞见,但是他的责任伦理却是人类中心主义的。责任的承担者是人无疑,但又不仅限于人。在生成式人工智能背景下责任的承担者既有可能存在于不同主体的关系中,也有可能是不同主体与技术的联合体,它具有交互性。因此, 责任的担负者是发挥不同角色的“主体”,而非单纯的人。当然,这里并非认同生成式AI已经完全具备了成为责任主体的条件,而是旨在表达它对每个主体的主体性建构都发挥了超越工具的、塑造性的意义。
再次,责任总是在一定后果产生之后才可评估, 它高于原则,能够作为行动的调适。责任伦理要求,在对 新兴技术的伦理考察中,反思价值中立原则是否需要适度 的自我约束。责任在一定程度上伴随着结果主义,有了后 果才会有明晰责任的问题。它具有他者思维、复杂思维、 境遇思维的特点,为解决当代人类社会面临的难题提供了 依据。[22]责任指向行为之外,它有一个外部关联。正如, 科学家的责任超出了他发现真理的本分,牵涉到他发现的 真理在世界上的影响[21]278。因而围绕生成式人工智能的活 动不可能是孤立的,不论是设计者的活动还是使用者的活 动,它们都具有外部关联。这种外部关联是超越原则的, 是基于后果评估的对行动的调适。总之,责任不是空谈 的,它是实践的,具有主体指向性和后果关联性的特征, 因而有助于弥合伦理原则与治理行动间的鸿沟。
(二)从测评到调适:多维测评是开展责任伦理调 适的实践依据
颠覆性技术终究是社会进步的缩影。人类总会找到合适的治理手段应对技术带来的新变化,而治理手段往往决定了技术前途。正如汽车发明之时,限制车速的“红旗法案”几乎禁止了汽车的存在,也使得英国本地汽车工 业外移,阻碍了技术发展。可见,封禁和限制并不能解决生成式人工智能的步调难题,新兴技术治理尤其需要历史眼光,应当将其置于时间性中考察与评估,进而为责任对 应提供足够依据。责任伦理旨在明晰责任分配而非倡导责任扩散,特别是防止众人之责变成无主责任(everybody's problem becomes nobody's responsibility)[23]。评估是责任伦理调适的前提条件和动态依据。
尽管基于不同价值观群体部署不同的模型在技术上 是可行的[24] ,人机价值对齐必须是基于技术的行动,而非伦理空谈。为了能够让责任对应落到实处,需要建立贯穿事前、事中、事后的综合评估机制,保证技术创新 进步的同时,不会因风险性被拖入技术负效应的深渊。
事前评估以技术性为主,设计者和管理者是事前评估 的主要责任主体。设计者需要创新开发大模型评测技术, 通过前期评测是大模型进入市场的技术底线,评测数据的 积累有助于制定技术上线标准。人工智能遵循概率模型 的工作逻辑,因而在技术层面不可能实现百分之百的准确性。管理者可以适度放宽政策,通过区分优先级、分阶段 的方案建立分级的大模型发布标准。以此构建容错机制, 给予大模型充分的时间周期修正、完善,使之健康运作。
事中评估以规范性为主,设计者和使用者是参与的主要责任主体。设计者应将对价值和伦理的关怀转化为对齐实践,在运行中通过标注和微调保障模型健康运行。随着开源程度和使用范围的扩大,安全漏洞和技术风险渐显,基于技术标准和动态逻辑的事中规范性微调 是设计者的重要责任。此外,使用者是事中评估的重 要参与者,动态交互特性在一定程度赋予使用者以“设 计”地位。因此,事中评估应基于使用者和设计者交互数据的评估,才能反映真实的应用状况。伦理评估作为介于伦理嵌入和伦理适配间的重要环节[25],直接关系到 技术伦理与社会伦理体系的接轨。
事后评估要充分考虑技术的社会性和治理政策的敏捷性,设计者、使用者和管理者都是主要责任主体。它既包含使用现状的评估,又囊括治理成效和政策的评估。尤其是对治理政策的评估,相关责任主体的共商共治才能使各自获取反思性、修正性意见,才能掌握生成式人工智能应用的社会后果,才能明确下一步的治理方向。贯穿事前、 事中、事后的三维测评是保证生成式人工智能各相关主体 责任分配、行使、调适的实施条件和测度措施。
(三)从主体到关系:在主体责任对应基础上责任 机制的新探索
在讨论关系视角的生成式人工智能治理前,基于主体的责任对应不容忽视,责任对应是具体行为责任划分。风险治理可以始于行动者权责关系,有针对性地进 行主体端治理。[26]简言之,政府负有监管责任,企业应 负责任地创新,公众有不滥用技术的责任,各主体被分配了不同的社会责任。实践中可通过协作的方法建构分布式的道德机制和AI道德建模,以分配道德责任减轻各 主体负担。[27]七部委联合发布的《生成式人工智能服务 管理暂行办法》中明确区分了提供者和使用者在开发、 治理、使用中的相应权责,体现了政策制定者责任对应 的思路,是国家AI治理的有益尝试。
可以预见的是, 随着生成式人工智能技术的进步, 必然冲击既有伦理体系,进而可能产生伦理关系失调、 伦理规范失序、伦理价值失衡、伦理行为异化、伦理评价失真等问题。因而有必要透过认知人工智能风险所有 权状况构建善治机制,形成应对所有权缺位的责任到位 机制、所有权分散的责任联动机制、所有权交织的责任 连带机制、所有权模糊的责任兜底机制[28]。这也充分表明,生成式人工智能对传统的责任认定、问责、履责环节带来不小冲击,迫使政策制定者在相应的规则、制度和程序上必须作出调整。[29]
构建生成式人工智能的责任应对机制,需要回答谁来负责、向谁负责、负什么责、怎样负责、如何负好责五个核心问题。
谁来负责事关责任的主体性:政府负监管责任,宏观把控技术发展方向;企业负起设计责任,应在设计阶 段将价值嵌入工程化并规避其中的消极方面;高校负教 研责任,肩负着培养负责任工程师的任务;公众负使用和监督责任,应遵守应用规范并履行监督义务。“人工智能体”依托“联合责任体”地位坚守“善”的技术底线,构建设计者与使用者的分布式责任生态。
向谁负责对应责任的指向性,指向性将各个责任主体连接,它印证了责任从来都不是孤立于各个主体的, 责任亦存在于各主体的关系之中。各责任主体在对自身 行为负责的前提下,还不能忽视对其他相关主体的指向性,在主体和关系的场域中探讨责任意义,才有助于形成有意义的责任闭环。
负什么责对应责任的内涵性,又直接与谁来负责相关联。举例而言,开发者要保障数据质量的可靠性、数据来源的合规性;使用者要合法合规,不激发技术的恶等。不同责任主体对应的责任内涵取决于具体情境中的角色。
怎样负责对应责任方法论,一方面即如何确保责任内涵性的现实转化,如何将伦理原则转化为责任行动,使得责任伦理贯穿动机、行为、结果;另一方面涉及责任行为的保障机制,是意识层面、制度层面、行为层面 的责任方法论构建。
如何负好责对应责任的评价性问题,事前、事中、 事后的评估为回答如何负好责这一问题提供了依据,能 够保障基于评价的适时调整。同时,能否搭建有效的生成式人工智能伦理与治理评估机制关系到责任伦理践行的最终效果。
(四)责任的关系本体论:人机关系视角下的生成 式AI责任联合体初探
建构基于责任伦理的生成式人工智能治理模式,主体层面的澄清和分类是必要的。为摆脱简单的乐观主义 或悲观主义立场,应采纳人机共生而非人机对立的立 场。[30]人工智能体系与人类共同构造了一种智能环境, 形成了共生形式的“智能关联主义”。 [31]生成式人工智 能作为道德行为体(moral agent)不仅需要追本溯源的 概念探究[32] ,思考意识、意向性、自由与行为体的关联,还需要从关系视角出发,透过“人-人工智能”关 联行为体(设计者+人工智能、管理者+人工智能、使 用者+人工智能、教育者+人工智能)思考二者的互构关系。毕竟,基于传统伦理学的观点,生成式人工智能 目前既不具备亚里士多德式的实践理性和德性品格,也不具备休谟式的道德发动意义上的情感。[33]
就现状看,之所以讨论生成式人工智能的道德行为体问题,在于它具备更强的自主性(autonomy),因而也强化了与伦理的联系。生成进路下的人工智能道德主体地位 研究以生物学、现象学为阐释工具,强调脑、身体、环境三者的涌现结果,融合了海德格尔的“此在”意蕴,着力讨论交互过程中的“在做中存在”。 [34] 因此,人机关系提 供了“此在”情境中的互动视角,在某种程度上创造了生成式人工智能作为的道德行为体讨论空间。
生成式人工智能的行为体责任讨论需要思维方式上 的解构,摆脱人类中心主义的叙事方式。当我们认为技术之于人是客体之于主体的关系时,需要反问人是否也可以作为技术的客体。[35]在应用中,“人-机”往往是以联合体形象出现的。从技术视角看,技术调节了人类认识世界的知觉,人类以技术的方式理解世界,人与技术是相互纠缠、相互塑造的关系。[36]这种关系前提使得技术负载价值、表达价值成为可能。进而从法律视角看它是确定责任 归属的一个中间路径。[37]生成式人工智能在与人的交互中 具备了综合道德行为者的属性。一方面其背后算法、微调等机制隐含开发者、设计者、校对者的意向性表达,甚至 是价值表达;另一方面,使用者在与生成式人工智能的交 互中形成了价值互动关系。行动归因既非仅来自于人,也非单纯出于机器,而是出于人机联合行动体。[38] 因而需要 完善这种联合责任体的机制研究。
由于应用中模糊了与人的界限,生成式AI与人的责 任联合体应具备对可能伤害的强敏感性和对道德决策的 弱自主性,以实现“有意不为”的负责后果[39] 。OpenAI 的一项研究表明,大模型能够运用自然语言表达对其自 身答案的校准不确定性。[40]人机联合责任体在一定程度 上具有技术上的可行性。不过可以肯定的是,技术与人 二分的工具主义观点已难以令人信服,这种二元论忽略 了人与生成式人工智能间的相互塑造、优劣互补,乃至 合作共生的复杂关系。以责任为出发点,生成式AI应当 坚守“不允许主动伤害其他主体,不应当漠视正在发生 的伤害”[41] 的伦理底线。人机关系视角为生成式人工智 能治理提供了系统、全面、动态应对的思考方式,使得 治理对策的新解法可以从关系本体论出发,在不同的对 应关系中探讨敏捷与协同治理的方案路径。
构建主体间的“大协同”, 即政府、企业、高校、 公众将负责任作为各个主体的治理基点[42],既担负自身 的治理责任,又要处理好彼此的责任关系,防止无视责任、逃避责任、推诿责任。同时,关注智能体的“联合 责任体位”及其对各主体责任的“介入”。在不同的环节和场景基于主体责任发挥差异化作用,围绕多元理性、多元主体和差异化治理能力等维度构建全景式治理框架,有助于实现“良序”治理[43]。
(一)立足责任:利益相关者共治是实现敏捷与协同治理的出发点
生成式人工智能涌现、交互、同质的技术新特质扩大了问题域,加之传统治理范式场景分散难以统筹全 局、风险预防难以准确预见、硬性法规难以提升治理实 效[44] ,加剧了治理难度。“问题-治理”逻辑难以适应 生成式人工智能发展新形势。如何切实将伦理原则落实 于治理行动亟待解决,如何弥补“先制造问题再治理” 亟待探索。况且生成式人工智能的发展现状一再表明, 任何单一主体都无法独自肩负伦理与治理的重任,治理 已经是一个系统性工程。多元主体共治已经成为普遍性 共识,如此问题便集中于如何促成多元主体间的协同以 实现AI善治。人机联合责任主体的讨论反映出,仅靠单 一主体视角的责任对应已经不能满足当下治理需求,它 需要作为补充的基于关系本体论的责任机制研究。
敏捷治理与协同治理也是在这样的背景下成为广泛讨论的人工智能治理路径。之所以要敏捷,是因为生成式人 工智能内容生成与效果涌现导致的不确定性、人机交互与 关联交织产生的动态性、模型同质与价值隐忧引发的复杂 性叠加,使得治理对象处在不断变化之中,新情况、新问 题不可预期地显现,因而需要在整体上有与之相适应的思 路,敏捷治理的核心要义即为不确定性、动态性和复杂性 提供治理思路和指导方略。之所以要协同,一方面它是敏 捷治理的实践方法论;另一方面,实践表明,仅仅依靠任 何单一主体都无法达成善治目的,困境、风险和挑战弥散 于众多环节、牵涉到多个主体,责任对应和责任分配是启 动基于责任伦理的治理模式的锚点,必须探索多元主体协 同治理的路径,同时重视以关系为出发点,思考基于四对 关系的协同体系,进而更好地推动责任伦理实践。
可以肯定的是,生成式AI治理没有灵丹妙药,治理 一直在摸索和尝试中不断寻找新的出路,利益相关者间 的协调与合作才能确保治理的可行[45] 。因而构建责任伦 理,转换治理思维,完善治理机制,探索基于关系本体 论的生成式人工智能责任协同框架,作为“先制造问题 再治理”模式的补充不失为有益尝试。
(二)分配责任:基于数据合规和算法偏见案例的阐释
理论上,依托主体的责任伦理构建应要求每一参与主体都能够做到以下环节:培育责任意识、明晰责任归属、落实责任行动、更新责任规范、主观责任反思、客观责任评估。然而,实践情况的主体交织性、问题重叠性、 关系复杂性使得依托主体的责任分配存在困难。它都是处在一种关系网之中的,解决好相应问题也应当立足于关系网,是整体性的思路。因此,分配和对应责任的意义在于锚定,而非确定。步调难题、弥散效应、权责黑箱、价值 冲突等治理困境的应对,都需要一定程度上的主体责任锚定。锚定的意义在于,当基于关系网的调适失效时,至少 有责任对应作为依据,以免治理体系全面失效,处于无治 理的混乱状态。数据、算法、算力是生成式AI的三要素, 不妨以数据合规与算法偏见为案例,讨论其中的责任分配问题,以期为基于关系的责任伦理构建奠定实践基础。
大模型训练数据集规模及参数量是生成式人工智能取 得技术突破的重要因素。对于模型而言,越多的高质量数 据意味着越高概率的规律判断和越可靠的结果预测,数据 已然成为人工智能的一种“战略资源”。它的重要性无需 赘言,而核心问题往往也是围绕着数据要素的。数据合规 的角度如何落实责任对应呢?有必要探索数据收集、数据 预处理、模型训练、模型部署、模型运行等不同阶段的主 体责任矩阵[46]。就责任分配而言,它主要涉及三个主体。 一是政府的监管责任,要防止法规不完善导致的治理缺乏 依据,《数据安全法》《生成式人工智能服务管理暂行办 法》能够在一定时间内确保治理有法可依,政府的责任就 是要避免研判不到位、处罚无依据,同时也有义务规避监管责任的无限放大,以寻求在发展和治理中求得平衡。二是企业的应用责任,企业是作为生产资料数据的直接生产者,获取的利益最多,肩负的责任也最重。它有责任控制数据来源、保障数据质量、规范数据使用,从风险层面防止弥散效应。三是公众的自控责任,使用者有仔细阅读数 据使用条款且在使用中有意识地保护个人数据的责任,做好个人的源头管理。总之,政府的责任在于制度完善,企业的责任在于强化审查和数据清理,公众的责任在于提升甄别能力。[47]
此外,再看算法偏见,它主要来源于设计者的偏 见、数据训练的偏见以及机器学习后天偏见。数据训练 偏见可以透过上述合规问题应对,而设计者偏见和机器 学习后天偏见仍与设计和使用个体相关,它事实上是人 的偏见的传导。从责任对应看,算法偏见亦涉及三类主体。 一是企业的设计责任,设计者个人偏见易转化为算 法偏见,因而应遵循负责任创新、价值敏感设计、参与 式设计等原则,从设计端规避算法歧视问题。二是高校 的培养责任,高校作为培养工程师的摇篮,有责任将科 技伦理融入培养,可以建立工程师培养方案备案制度推 动问责制度的可操作性。三是公众的应用责任,机器学 习后天偏见大多是从使用者那里习得的,因而一方面可 以透过知识普及的方式让使用者意识到偏见产生的交互 性,另一方面有必要完善不当言论处罚制度,明确使用 者责任。因此,可以依靠信息告知、质疑与辩护、评估 与判断等必要过程促进责任的追溯和承担。[48]
生成式人工智能具有集体意义,责任伦理也亟待从 个人伦理走向集体伦理。[49]分配责任事实上是一个从意 识培养到行为养成,再到意识与行为统一的过程。从这 个角度看,高校担负着意识培养的主要责任,其中既包 含工程师的科技伦理意识,又包含公众理解技术中的自 觉。企业承担着行为养成的主要责任,一个优秀的人工 智能企业应该是一个负责任的企业,毕竟该领域的创新 关系着人类的存在论意义。最终,意识与行为能否统一 主要依靠政府监管和行业共同体共识。
(三)整合责任:处理好四对关系是实现敏捷与协 同治理的有益尝试
第一,优化管理者与被管理者的敏捷与协同。这一环节顶层设计和基层治理需要相辅相成,才能化解好创 新发展与伦理治理之间的矛盾,寻求二者间的平衡,回应速度上的步调难题。《暂行办法》突显了发展与治理如何平衡的破局之道。[50]一是要转变治理思维,管理者与被管理者的关系不再是传统的治理与被治理的关系, 要打破既有自上而下的管理思维,打开共治的局面,将责任整合于二者的关系之中。管理者要汲取各方意见, 一方面完善治理体系,对技术风险与危害寻求共识性意见;另一方面破除“未来学意义上的担忧”,对新兴技术不确定性保有宽容度,毕竟发展是治理的前提。二是 要畅通沟通渠道,既要多倾听产业界和学术界声音,又要探索政策界、产业界、学术界的互动模式,营造倾听、服务、研讨的共治生态。被管理者则需要转被动为 主动,关注新动态、发现新情况、提供新信息,积极参与治理体系设计。三是要做好动态评估,通过官方和非官方方式,组织调动技术专家、伦理专家、治理专家间对话,形成不同阶段的评估意见,深挖技术逻辑背后的伦理难题与治理挑战,提高政策选择的合理性。
第二,推进设计者与使用者的敏捷与协同。生成式 人工智能前所未有地改变了设计者与使用者之间的互动模式,把控好设计端和使用端是应对弥散效应最直接的途径。一是引导设计和使用自律,生成式人工智能安全机制 的建立,行业自律是重要的第一步,在此基础上才能推动标准的建立。[51]这不仅需要企业文化的科技向善导向,更需要通过不同形式,如成立科技伦理委员会、成立技术专 家和伦理学家参与的项目工作小组等践行价值敏感性设 计。使用者自律也在很大程度上决定了大模型的技术进化方向。二是在自律基础上进行源头治理。设计者的价值敏 感性往往决定了产品的良善性参数,因此,从“源头”把 握技术良善性参数是设计者在协同治理的大循环中必须担 负起的责任。当然,设计者之间的互动也必不可少,研究表明安全层面良好的产业合作能够推动善的治理[52]。使用者要把善的使用作为第一使用准则,做到不激发技术的恶。三是要形成良性互动,设计者不再是简单的提供者, 他们可以将价值“写入”技术的方式赋价值于生成式人工智能;使用者也不再是单纯的被动接纳者,他们更积极地与之互动,让生成式AI在互动中“自我学习”。因此,设计者与使用者以大模型为媒介的互动也具有了价值互动的 属性,二者间的敏捷与协同需要价值良性互动。
第三,加强教育者与“聆听者”的敏捷与协同。高校主要承担教育者的角色,应在设计者与使用者的互动环节中发挥好指导作用,在权责黑箱难以打开的情况下,尝试通过科技伦理教育和科学普及等方式降低权责黑箱的“黑度”。 一是伦理落地需要科技伦理教育,培 养具有责任意识的工程师是作为教育者的高校的主要职责。高校是践行科技伦理的第一阵地,肩负把负责任创 新和科技向善的科研理念注入工程师培养。透过工程师培养增加科技伦理落地的实践性,运用项目参与、实验互动、跨学科座谈等方式推动科学与人文的互动。二 是科学普及的社会性推广,政府、企业作为聆听者需要 尊重和回应专家意见,更重要的环节是作为聆听者的公众参与是构建良性协同治理生态的助力。只有当公众对 技术伦理更加敏感时,才能以市场转化的方式传递给设计者和管理者。因而科普不只是推动公众理解科学和技术,避免公众对新兴技术的妖魔化理解,更是构建良性治理生态的基础环节,确保治理不会成为无源之水。三 是把控舆论导向,公众对生成式人工智能的应用现状、 技术局限和未来隐忧的理解需要通过科普的方式被引导,尤其是可能涉及意识形态的部分,需要教育者与聆听者的良性互动。坚持正确的舆论导向,才能促成专家 与公众良性沟通,摆明问题,讨论问题,解决问题。
第四,深挖人工智能体与其他主体的敏捷与协同。 生成式人工智能是价值矛盾发生的主要载体技术,因而 应对价值隐忧需要技术方面的突破。一是探索道德物化理论的实践应用,人机关系视角为我们提供了人类与生成式人工智能相互塑造的依据,尤其是结合其技术特征,使得 “道德物化”具有实践可能性。生成式人工智能体在应用 中能够折射出其他主体对其的影响,不论是监管的、设计 的、微调的、使用的,还是计算伦理对人类伦理的反向渗 透[53]。因而需要以道德物化为依据探索新的人机关系实践 以回应价值挑战。二是继续价值对齐实践的技术探索,AI对齐是生成式人工智能技术未来重要的发展方向,它能使 人工智能的产出更加符合人类价值观,并在与人类的协 同互动中发挥人和AI的不同能力,OpenAI也正在探讨一种 “以弱制强”的方式[54]。人机价值对齐实践必须依靠强有 力的技术支持,否则很难避免空谈对齐。三是摒除人类中 心主义和人机零和博弈的惯性思维。现代性通常以人类主 义的方式被界定,无论是庆祝人的诞生,还是宣告人的终结,它都忽视了“非人类”——物或客体的存在。[55]必须 要摆脱传统的方法论个人主义、物化认识论、零和博弈思维,将人类与生成式人工智能的关系视为智能关联主义, 理解新智能技术带来的新科技革命。[31]至此,更深刻地理解技术本身,才能透过道德物化的视角反思技术对主体的介入,才能摆脱传统的技术工具主义思维,才能构建多主体的责任机制。
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢