目前,包括 OpenAI、TikTok、Adobe、BBC 和约会应用程序 Bumble 在内的 10 家公司已经签署了一套关于如何负责任地构建、创建和共享人工智能生成内容的新指南,旨在帮助他们在生成人工智能方面更加透明。
这些建议呼吁 OpenAI 等技术的构建者,以及 BBC 和 TikTok 等数字合成媒体的创建者和发行者,更加透明地说明该技术能做什么和不能做什么,并公开人们何时可能会这样做 与此类内容进行交互。
这些自愿建议是由 AI 研究非营利组织 Partnership on AI (PAI) 与 50 多个组织协商后提出的。 PAI 的合作伙伴包括大型科技公司以及学术、民间社会和媒体组织。 前 10 家承诺遵守该指南的公司是 Adobe、BBC、CBC/Radio-Canada、Bumble、OpenAI、TikTok、Witness 以及合成媒体初创公司 Synthesia、D-ID 和 Respeecher。
“我们希望确保合成媒体不被用于伤害、剥夺权力或剥夺权利,而是用于支持创造力、知识共享和评论,”PAI 的人工智能和媒体诚信负责人克莱尔莱博维茨说。
指南中最重要的元素之一是公司达成协议,包括并研究在用户与 AI 生成的事物交互时告知用户的方法。 这可能包括水印或免责声明,或 AI 模型训练数据或元数据中的可追溯元素。
试图控制与生成 AI 相关的潜在危害的法规仍然滞后。 例如,欧盟正试图将生成人工智能纳入其即将出台的人工智能法,即人工智能法案,其中可能包括披露人们何时与深度造假互动以及强制公司满足某些透明度要求等要素。
虽然生成人工智能现在是一个狂野的西部,但为该指南做出贡献的生成人工智能专家亨利阿杰德说,他希望他们能为公司提供他们在将技术融入业务时需要注意的关键事项。
加州大学伯克利分校研究合成媒体和深度造假的教授 Hany Farid 说,提高认识并围绕负责任的方式思考合成媒体展开对话很重要。
但“自愿准则和原则很少奏效,”他补充道。
虽然 OpenAI 等公司可以尝试对他们创建的技术设置防护栏,例如 ChatGPT 和 DALL-E,但其他不属于该协议的参与者,例如创建开源图像生成 AI 模型的初创公司 Stability.AI Stable Diffusion——可以让人们生成不合适的图像和 deepfakes。
“如果我们真的想解决这些问题,我们就必须认真对待,”法里德说。 例如,他希望由亚马逊、微软、谷歌和苹果运营的云服务提供商和应用商店(它们都是 PAI 的一部分)禁止允许人们使用 deepfake 技术来制造非自愿性行为的服务。 意象。 他说,所有人工智能生成的内容上的水印也应该是强制性的,而不是自愿的。
英特尔高级研究科学家伊尔克·德米尔 (Ilke Demir) 表示,另一个重要的缺失是如何让人工智能系统本身变得更加负责任,他领导公司负责生成人工智能的开发工作。 这可能包括有关如何训练 AI 模型、输入哪些数据以及生成 AI 模型是否有任何偏见的更多详细信息。
该指南没有提及确保生成人工智能模型的数据集中没有有毒内容。 “这是这些系统造成伤害的最重要方式之一,”数字版权组织 Access Now 的高级政策分析师 Daniel Leufer 说。
该指南包括这些公司希望防止的危害列表,例如欺诈、骚扰和虚假信息。 但是,始终创造白人的生成式 AI 模型也在造成伤害,目前尚未列出,Demir 补充道。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢