从业界具体实践来看,随着各界对AI伦理的日益重视和各国AI监管政策和立法的持续推进,各大科技公司纷纷拥抱AI伦理,打造可信AI,把AI伦理和可信AI作为打造AI产品和服务的市场竞争优势的核心引擎之一。
微软、谷歌、IBM、Twitter等众多国外主流科技公司在AI伦理与可信AI方面谋划早、布局全、实践深,涉及原则、治理机构、技术工具和解决方案、AI伦理产品服务、行动指南、员工培训等诸多层面。本文对微软、谷歌、IBM、Twitter这四家比较有代表性的公司的实践做法予以系统梳理,以期能够有所启示。

启示:

其一,在一个高度技术化、数字化的社会,在公司的治理版图上,技术伦理将成为与财务、法务等既有板块同等重要甚至更为重要的板块。我们看到,技术伦理作为商业伦理的新拼图,越来越多的科技公司开始将首席伦理官、伦理委员会等机制内化为常态化的组织架构,统筹推进相关工作。

其二,AI伦理和可信AI需要系统化的建设,抽象的原则和顶层的框架固然重要,但行胜于言,更重要的是将伦理原则转化为具体的实践,融入技术设计以打造负责任的技术应用。在这方面,内部治理机制、技术解决方案、伦理培训、伦理黑客社区(类似于网络安全领域的白帽黑客)、技术标准等传统的和创新性的方式日益发挥出重要作用。因为可信AI和AI伦理不仅是理念原则,更是行动路线。

其三,正如可信AI和AI伦理的概念本身所表征的那样,我们需要反思技术人员主导的技术研发应用和部署过程,更多强调技术开发应用中的多元背景和多元参与。将政策、法律、伦理、社会、哲学等领域的人员引入开发团队,是将伦理要求嵌入技术设计开发的最直接的、最有效的路径。好的技术不仅关注结果,更要关注过程。

内容中包含的图片若涉及版权问题,请及时与我们联系删除