12月27日,AI发展与治理创新研讨会在北京成功举行。并吸引多家媒体广泛关注,纷纷报道。
会上,阿里巴巴集团与中国电子技术标准化研究院联合发布《生成式人工智能治理与实践白皮书》。阿里巴巴安全部研究员、阿里巴巴集团科技伦理治理委员会委员薛晖表示,阿里巴巴正在一边筑牢AI发展的防火墙,一边突破AI应用的天花板,与社会各界一道,用AI破解更多社会难题,推动AI惠及更多人。
来自中国科学院、中国社科院大学、复旦大学、浙江大学、国家部委研究机构和国内AI企业的专家参加了研讨会。与会专家从技术趋势、科技伦理和协同治理等角度,共同探讨中国AI的发展之道。
中国电子技术标准化研究院信息技术研究中心副主任董建在会上介绍了全球人工智能治理的路径,包括综合评价与管理AI技术风险,以及加强标准与治理规则联动等。
中国科学院信息工程研究所韩冀中认为,人工智能的快速发展催生了多种新业态、新产品,也会带来风险和挑战。“推动(人工智能)技术和行业的健康发展,需要各界不断深化对新技术可能产生的风险的认知和评估,持续完善治理的方法和标准。”他说道。
浙江大学教授潘恩荣指出,生成式人工智能(以下简称“AIGC”)对人类经济社会发展带来巨大的观念冲击,“宜疏不宜堵”。一方面,必须克服各种恐惧和臆想,克制“堵”的冲动;另一方面,要在实践中小步快跑地迭代出各种“疏”的方式。
复旦大学教授张谧认为,科技行业应该负责任地发展AI,兼顾AI发展和风险管控。张谧说:“现在全球范围内有AI竞赛的氛围,注重安全反而可能造成技术落后,为了占领先机便不得不搁置安全。各方应该立足长远,携手营造有序竞争,把风险控制在防护能力的上界之内,保障AI发展处于安全区域。”
张谧对AI大模型未来的安全前景持乐观态度,她援引前沿观点指出,随着评测、治理技术的成熟,以及治理体系的完善,人类提供一整套安全规则,AI就能根据规则实现“用模型监督模型”;而更长远地看,AI大模型有可能自主对齐人类价值观、主动向善发展。“只要我们负责任地对待AI,就能构建“爱人类”的AI。”张谧说。
会上,阿里巴巴集团与中国电子技术标准化研究院联合发布《生成式人工智能治理与实践白皮书》(以下简称《AIGC白皮书》),这是国内首部系统分析大模型和AIGC技术研发应用中的主要风险,从应用角度提出针对性、可操作的治理建议和实践方案的专业论著,也是国内首度以负责任科技企业的身份对开发更为安全可靠的大模型、更好服务国家和社会需要作出的承诺和表率。

最新《AIGC白皮书》介绍了全球AIGC技术与应用的最新进展,梳理了各界对这项新技术的疑虑和担忧,剖析了世界各国治理AIGC的不同模式。
阿里巴巴安全部研究员、阿里巴巴科技伦理治理委员会委员薛晖表示:“关于AI,我们不知道的比知道的多,难以想象的比可以预测的多。AIGC带来前所未有的挑战,需要我们前瞻性地应对。AI的发展和治理,仅凭一家企业、一所高校、一个机构无法独立完成,必须‘多元协同、开放共治’。阿里巴巴正在一边筑牢防火墙,一边突破天花板,与社会各界一道,用AI破解更多社会难题,推动AI惠及更多人。”

在会上,薛晖分享了阿里医疗AI团队和医学界合作,用“平扫CT+AI”方法进行胰腺癌早筛的创新实践。胰腺癌被称为“癌症之王”,患者的五年平均生存率不到10%,而且长期缺乏有效的筛查手段,容易漏诊误诊。80%的胰腺癌一旦发现就是晚期,发病凶猛,很难治愈。




在新年来临之际,AAIG将送出新年礼物,发送关键词“新年快乐”到本公众号即可参与抽奖!
深度学习如何提升数字水印的透明性和鲁棒性? | 如何避免ChatGPT被滥用...👉点击查收过往33期直播的全部文字回放

关注公众号发现更多干货❤️




内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢