NVIDIA和英国皇家医学院推出了患者隐私保护系统
2019年10月21日 由 KING 发表
958526
0
为了在保护患者隐私数据的同时帮助推进医学研究,NVIDIA研究人员与英国皇家医学院的研究人员以及法国公司Owkin进行了合作,推出了首款用于医学图像分析的隐私保护学习系统,为英国医学影像和AI医疗保健中心提供联合学习。
近日在深圳举行的世界医学影像学最顶级会议MICCAI上他们发表了关于这项研究的论文,NVIDIA和英国皇家医学院的研究人员详细描述了他们是如何发展自己的技术的。研究人员在论文中说:“联合学习是一种学习范例,允许开发人员使用分布在多个位置的训练数据来训练集中式深度神经网络(DNN)。联合学习允许对神经网络进行协作和分散式训练,而无需共享患者数据。每个节点训练自己的本地模型,并定期将其提交给参数服务器。服务器累积并汇总各个部分的数据以生成一个全局模型,然后将其与所有节点共享。”
研究人员解释说,尽管联合学习可以在隐私方面提供高度的安全性,但是仍然存在通过模型反演来重建数据的方法。为了帮助使联邦学习更加安全,研究人员研究了名为ε-差异隐私框架(一种正式定义隐私丢失的方法)的方法,该框架通过强有力的隐私保护系统来保护患者和机构数据。为了确保优先考虑患者隐私,Owkin在体系结构中内置了差异性隐私和其他最新的隐私保护技术。
针对这一突破的实验是根据BraTS 2018数据集的脑肿瘤分割数据进行的。BraTS 2018数据集包含285位脑肿瘤患者的MRI扫描图。该数据集在这里用于评估多模式和多类别分割任务上的联合学习算法。然后该团队采用了最初为数据集中培训而设计的最先进的培训管道,并将其做为NVIDIA Clara Train SDK的一部分。为了进行培训和推理,该团队使用了NVIDIA V100 Tensor Core GPU。 将联邦学习与以数据为中心的系统进行比较时,所提出的方法无需共享机构数据就可以实现可比的细分效果。
而且,实验结果表明,在隐私保护与训练模型的质量之间存在自然的关联。尽管如此,使用稀疏矢量技术,联合学习系统仍可以在模型性能方面以相当低的成本提供严格的隐私保护。
NVIDIA团队解释说,深度学习是一种从医学数据中自动提取知识的强大技术。联合学习具有潜力,可以有效地汇总从私人数据本地学习的各个机构之间的知识,从而进一步提高深度模型的准确性,鲁棒性和泛化能力。
NVIDIA研究人员表示:“这项研究是部署安全联合学习的重要一步,这将使大规模数据驱动的精确医学成为可能。”