人工智能的广泛应用改善着人类的生产生活。然而,当前的人工智能算法主要依赖于数据驱动、缺乏可解释性,算法模型中的安全漏洞也暗藏着不容忽视的风险。
攻击者通过利用抗样本攻击和模型后门攻击等技术,使算法模型产生错误的决策,可能导致人工智能系统被入侵、执行错误的指令。在针对识别系统的物理攻击中,黑客可以通过该技术实现身份伪装与身份逃逸,甚至破解政务平台与电子银行的线上身份认证系统,安全问题显著。
为解决诸如以上的新型安全问题,北京智源人工智能研究院与RealAI联合设立了安全人工智能创新中心,基于RealAI研发的人工智能安全平台RealSafe,围绕人工智能安全性测评、防御等内容开展深入研究。
为了更大范围的普及AI安全风险知识,RealAI联合智源正式推出RealSafe社区版,可以测评人脸比对模型的安全性,研究人员、企业用户等均可以登录智源官网免费体验。
官网:www.baai.ac.cn/research/realsafe
对抗样本体验
用户可自行上传图片,在平台上自动生成对抗样本图案,查看对抗样本对于比对模型的攻击效果。同时,也可以将对抗样本图片上传至第三方开放平台进行验证。
安全检测体验
用户可自行上传人脸比对场景的模型文件或API调用脚本,通过新建任务平台将自动进行模型安全性测评,并且平台会在测评完成后输出测评报告。
1)准备环节:按要求准备好代测评的服务后即可新建测评任务。平台支持使用系统内置数据集进行测评,如需自定义数据集进行测评,也可以按照平台要求创建用于测评的自定义数据集;
2)测评环节:提交测评任务,平台支持配置扰动大小等直接影响对抗样本攻击强度的关键参数,提交任务后,平台将自动对 AI 模型的安全性进行测评,测评完成后输出测评报告;
3)查看测评报告:测评报告将综合被测模型在对抗样本攻击下的表现给出安全评分、测评详情、攻破案例、防御建议四部分反馈内容。
官网:www.baai.ac.cn/research/realsafe
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢