隐私计算:拿什么保护我们的数据安全?( 二 )


02 隐私计算酝酿期:大规模应用的前夜为什么隐私计算现在变得越来越重要呢?不仅仅是开头我们提到的公民个人隐私数据泄露已经到了亟待治理的阶段 , 现在数据也已经成为企业平台最重要的核心资产 , 企业已经有动力要对平台数据进行充分的保护和合规的使用 。
我们看到 , 今年 , 我国首次将数据定性为土地、劳动力、资本、技术之外的第五大生产要素 。 不久前 , 人代会审议的《个人信息保护法草案》规定:侵害个人信息权益的违法行为 , 情节严重的 , 没收违法所得 , 并处5000万元以下或者上一年度营业额5%以下罚款 。 而5%的额度甚至超过了“最严数据保护”之称的欧盟GDPR 。
无论是出于数据合规合法的考虑 , 还是出于数据应用的考虑 , 企业都正在加大对数据隐私保护的力度 。 根据国际调研机构Gartner最新的一份战略科技趋势预测 , 隐私计算成为2021年重点深挖的9项技术之一 。 Gartner还预测 , 到2025年 , 将有一半的大型企业机构使用隐私计算在不受信任的环境和多方数据分析用例中处理数据 。
这些新趋势的出现 , 为隐私计算提出了新的要求 , 也将提供广阔的产业应用需求 。
从技术端来说 , 隐私计算现在有两种主流解决方案 , 一种是采用密码学和分布式系统的方案 , 一种是采用可信硬件的方案 , 实现接收多方隐私数据输入输出 。
密码学方案目前以MPC为代表 , 以秘密分隔、不经意传输、混淆电路、同态加密等专业技术来实现 , 近几年其通用性和性能正在得到显著提升 , 具有实际应用的价值 。 可信硬件技术当前主要以可信执行环境(TEE)为主 , 构建一个硬件安全区域 , 数据仅在该安全区域内进行计算 , 核心是将数据信任机制仍然交给像英特尔、AMD等硬件方 , 因其通用性高、开发难度低 , 在对数据保护并不严苛的场景下可以发挥重要价值 。
另外 , 在人工智能大数据应用的大背景下 , “联邦学习”也是隐私计算领域主要推广和应用的方法 。
在以人工智能、大数据应用为代表的新技术周期中 , 隐私计算为互联网平台和企业提出了更高的数据治理要求 , 即真正要做到以用户为中心 , 不必依赖企业自身或第三方公司控制的数据服务器进行安全保障 , 让用户真正掌握自己的数据所有权 , 保护数据安全和隐私要求 。
在产业端 , 隐私计算应用场景不断扩展 。
比如在金融行业 。 国内隐私计算产品目前主要应用于金融行业的风控和获客 , 即多家金融相关机构在不泄露客户个人信息的前提下对客户进行联合画像和产品推荐 , 在多头借贷等场景下能有效降低违约风险 。
在医疗行业 , 通过隐私计算技术 , 医疗机构与保险公司之间可以在不共享原始数据的情况下分析投保者的健康信息 。 在政务行业 , 隐私计算可以提供政府数据与电信企业、互联网企业等社会数据融合的解决方案 。 在一些地方政府的相关规划里 , 隐私计算有望成为下一个应用推广的重点 。
未来 , 隐私计算将广泛应用于金融、保险、医疗、物流、汽车业等众多拥有敏感隐私数据的领域 , 在解决数据隐私保护问题的时候 , 也帮助缓解行业内的数据孤岛问题 , 为大量AI模型的训练和技术落地提供一种合规的解决方案 。
03 任重而道远 , 数据隐私计算的困境和出路现在 , 随着社会发展进入数据要素时代 , 移动互联网进入下半场和国际局势的变化莫测 , 数据要素问题变得更加复杂 。 在隐私计算领域 , 公民数据安全使用的法律定位、企业内和企业间的数据的分析应用以及全球性的数据跨境交易流通 , 都面临着前所未有的挑战 , 在各个环节也还都存在各自的问题 。
首先从隐私计算关于公民数据安全使用的法律规定上 , 我国的法律尚未对隐私计算是否合法做出明确规定 , 在现有规定中“未经被收集者同意 , 网络运营者不得向他人提供个人信息” , 而隐私计算的目标就是基于多方数据的计算 , 原则上破坏了这一要求 , 但同时又适用于“经过处理无法识别特定个人且不能复原”的例外条款 。 这些成为制约隐私计算发展的首当其冲的法律瓶颈 。
其次 , 隐私计算在企业内应用还存在一定的难度 。 比如大部分企业的数据规范性和数据质量难以支撑隐私计算对于参与方数据一致性的要求 。 隐私计算本身的复杂性和计算效率对于企业的大规模商用提出较高要求 , 试错成本高 。 另外 , 隐私计算对于真正受益的用户而言 , 存在一定的“黑盒”效应 , 人们很难理解和信任隐私计算技术 , 普及接受成本较高 。