《面向儿童的人工智能北京共识》全文发布

2020年9月14日,北京智源人工智能研究院(以下简称“智源研究院”)联合北京大学人工智能研究院、清华大学人工智能研究院、清华大学人工智能国际治理研究院、中科院自动化所、中科院计算所、中科院心理所等高校院所,以及小米、旷视、奇虎360、好未来、爱学习、极客邦、新一代人工智能产业技术创新战略联盟等人工智能企业和联盟组织,共同发布了我国首个针对儿童的人工智能发展原则《面向儿童的人工智能北京共识》。 以下为《共识》全文(英文baai.org/l/ai4ch):

儿童是人类发展的希望,同时也是弱势和脆弱群体,需要全社会的特别关注,尤其是在当前人工智能的发展正以前所未有的方式给社会带来深刻和广泛影响的背景下。

社会各界应高度重视人工智能对儿童的影响,发展对下一代负责任的人工智能。人工智能的发展应保护和促进儿童的权益,避免剥夺和损害儿童的权利,助力实现儿童健康成长。

| 以儿童为中心

面向儿童的人工智能发展应符合以下价值观:

尊严:人工智能的发展应维护儿童的尊严。人工智能的发展应重视并尊重儿童自身的思想、意愿、情感、兴趣爱好、自尊心等,避免对儿童的人格尊严造成伤害。

成长:人工智能的发展应保护和促进儿童的自由发展与多元成长。人工智能应促进儿童的多元智能发展和个性成长,积极反馈儿童的好奇心,助力激发儿童的潜力,助力引导儿童形成科学的、正确的价值观。

公平:人工智能的发展应公平对待和服务于所有儿童,不应对任何儿童造成歧视或伤害。人工智能的研究与应用,凡涉及儿童享有的基本权利,不应因儿童或其父母、法定监护人及其他看护人的种族、肤色、性别、语言、宗教、政治或其他见解、国籍或社会出身、财产、伤残、出生或其他身份等而有任何区别。

儿童优先:人工智能的发展应优先考虑增进儿童的福祉。人工智能在研究、设计、开发、部署和使用时应优先考虑儿童的需求和权益,优先给予儿童充分保护,优先促进儿童的发展。

| 保护儿童权利

人工智能的发展应保护以下儿童权利:

安全保障:人工智能的发展应助力于保护和促进儿童的身心安全。人工智能应助力于保护儿童免受任何形式的身心摧残、伤害或凌辱,忽视或照料不周,虐待或剥削,包括性侵犯,助力打击对儿童的拐卖、猥亵等犯罪行为。

身心健康:人工智能的发展应助力于保护和促进儿童的身心健康。如:助力增强诊断和治疗儿童疾病的能力,助力解决因贫穷、饥饿、环境污染等问题引发的儿童营养与健康问题,助力保护儿童正常的认知、性格、能力、健康习惯和行为等。

隐私保护:人工智能的发展应更严格地保护儿童隐私。收集儿童信息应遵循合法正当必要的原则,确保监护人的知情与同意,避免对儿童信息的非法收集和滥用。人工智能系统应确保儿童、父母、法定监护人或其他看护人具有同意、拒绝、数据删除、授权撤销等权利。

优质教育:人工智能的发展应助力于为儿童提供更包容、更公平、更优质的教育。人工智能的发展应助力保护儿童接受教育的权利,助力为儿童提供科学优质的、合乎伦理的教育,帮助儿童充分发展个性、才智和能力,避免导致危险的、强制灌输的、有害健康的、不道德的教育。

意愿表达:人工智能的发展应助力于维护儿童自由表达意见与意愿的权利。人工智能研发者应当通过合适的渠道认真听取、重视并思考儿童的意见。儿童在与人工智能交互时,应被允许自由表达意见与意愿。父母、法定监护人或其他看护人可在考虑儿童意愿的情况下帮助儿童与人工智能交互。

| 承担责任

面向儿童的人工智能应承担以下责任:

负责任:人工智能的发展应秉承对下一代负责任的态度,充分考虑并尽力降低、避免人工智能可能给儿童带来的潜在伦理、法律、社会风险与隐患。人工智能的研究、设计、部署、使用应邀请儿童及其父母、法定监护人和其他看护人参与讨论,积极回应社会各界关注和重视的问题,建立及时有效的纠错机制。

控制风险:人工智能的应用应秉承严格、审慎的原则,努力控制并最小化给儿童带来的潜在风险。目前关于人工智能对儿童心理、生理以及行为的影响仍有待研究,且儿童自身的思维与行为具有较高的不确定性,因此面向儿童的人工智能技术及产品应在成熟度、稳健性、安全性、可靠性、可控性等方面符合更高的标准和要求。

适度解释:人工智能模型、产品、应用与服务应在不断致力于提高自身透明性与可解释性的基础上,进一步考虑不同阶段儿童的认知水平、自身需求和表达能力,提供相应的透明程度与解释水平,并为儿童提供有效的反馈与交互方式。

确保知情:涉及人工智能技术的非人类交互对象或非真实内容,应以明确的、可理解的方式告知儿童及其父母、法定监护人或其他看护人,确保其认知不被误导、不受人工智能可能带来的负面影响。

培训引导:应积极引导儿童、父母、法定监护人或其他看护人正确认识和理解人工智能服务。通过多途径、多方式的培训,引导儿童、父母、法定监护人或其他看护人形成合理的认识,避免出现对人工智能应用的盲信、沉迷、误解等。

可持续:应将对儿童成长、发展的持续有利作为面向儿童的人工智能的发展目标。应关注人工智能长期应用中的不确定性,避免为追求短期利益而可能给儿童带来负面影响的短视行为。

| 多方治理

面向儿童的人工智能治理应遵循以下原则:

制定政策:应研究和制定保护儿童权益的人工智能发展政策、伦理规范等。应加强人工智能对儿童潜在影响的研究,制定前瞻性的行为准则、法律法规和技术规范,建立长期追踪研究和周期性评估机制。鼓励和推动人工智能向保护与促进儿童权益的方向健康发展。

健全法治:人工智能的利益相关者应自觉严格遵守儿童相关的行为准则、法律法规和技术规范。人工智能立法应关注人工智能对儿童权益的影响,促使其在法律体系中得到明确有效的体现。应设立治理机构,建立严格的审查和追责机制,严厉惩处滥用人工智能侵害儿童权益的个人及组织。

多方协作:应鼓励儿童、父母、法定监护人或其他看护人,以及政府、相关企业、民间团体等社会各界人士参与讨论人工智能对儿童的潜在影响,并倡导多方协作共担责任的治理模式,实施跨学科、跨领域、跨部门、跨机构的面向儿童的人工智能治理。

开放共享:应建立跨地域、全球性、综合性的人工智能治理开放合作平台,共享面向儿童的人工智能治理经验和方法,促进全球面向儿童的人工智能治理共同发展,助力人工智能时代下的全球儿童健康成长。

注: 1.有关儿童的定义,建议参考联合国《儿童权利公约》及各个国家或地区的规定。 2.本共识中有关价值观和儿童权利的描述,部分参照了联合国《儿童权利公约》文本。

资讯
评论0

可用Markdown格式