- 简介随着人工智能在医疗领域的迅速发展,敏感医疗数据的生成和存储量显著增加。这种数据的丰富性推动了医疗人工智能技术的发展。然而,对于未经授权的数据利用,例如用于商业人工智能模型的训练,常常阻碍研究人员公开其宝贵的数据集。为了保护这些难以收集的数据,同时鼓励医疗机构共享数据,一种有前途的解决方案是在数据中引入无法察觉的噪声。这种方法旨在通过在模型泛化中引入降级来保护数据免受未经授权的训练。尽管现有的方法在一般领域中表现出了可称赞的数据保护能力,但是当应用于生物医学数据时,它们往往表现不佳,主要是由于它们未能考虑到医学图像的稀疏性。为了解决这个问题,我们提出了一种名为Sparsity-Aware Local Masking(SALM)的方法,这是一种新颖的方法,它选择性地扰动重要的像素区域,而不是像以前的策略那样扰动整个图像。这种简单而有效的方法通过集中于局部区域显著减少了扰动搜索空间,从而提高了对生物医学数据集的数据保护的效率和有效性,这些数据集具有稀疏特征。此外,我们已经证明SALM保持了数据的基本特征,确保其临床效用不受影响。我们在各种数据集和模型架构上进行了广泛的实验,证明SALM有效地防止了深度学习模型的未经授权的训练,并且优于以前的最先进的数据保护方法。
-
- 图表
- 解决问题如何在保护医疗数据的同时鼓励医疗机构共享数据?
- 关键思路提出一种针对医学图像数据的数据保护方法,即Sparsity-Aware Local Masking (SALM),通过选择性扰动显著像素区域,从而有效地防止深度学习模型的未授权训练。
- 其它亮点SALM方法能够保护医疗数据的隐私性,同时保持数据的关键特征,确保其临床实用性不受影响。实验结果表明,SALM方法优于现有的数据保护方法,并且在各种数据集和模型架构上都表现出良好的性能。
- 在医疗图像数据保护领域,已有的方法往往未能考虑到医学图像数据的稀疏性。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流