供需大厅

登录/注册

公众号

更多资讯,关注微信公众号

小秘书

更多资讯,关注荣格小秘书

邮箱

您可以联系我们 info@ringiertrade.com

电话

您可以拨打热线

+86-21 6289-5533 x 269

建议或意见

+86-20 2885 5256

顶部

荣格工业资源APP

了解工业圈,从荣格工业资源APP开始。

打开

隐私计算,“以数易数” 打响数据安全保卫战

来源:智能制造纵横 发布时间:2022-04-28 776
工业金属加工智能制造其他运动控制传感器工业机器人液压与气动技术机械传动工业互联智能仓储物流仪器仪表智能加工设备 特别报道
收藏
隐私计算是指在保护数据本身不对外泄露的前提下实现数据分析计算的一类信息技术,是数据科学、密码学、人工智能等众多技术体系的交叉融合。

 新冠疫情肆虐全球,催化各行业加速数字化转型,数据的价值在进一步凸显。

数据安全保卫战拉开新序幕


伴随着数据的大量爆发,数据泄露成为最大的潜在安全隐患,事故频发。今年央视3•15晚会再次聚焦APP合规话题,APP过度索权、数据泄露等都是目前危害信息安全的常见问题。晚会首次设立了“3•15信息安全实验室”,这标志着数据合规工作不再仅限于手机APP,已经从手机端拓展到智能手表、智能家电、IoT设备等方面。


5c99e214a503d.jpg


数据流通是释放数据价值的关键环节,既要应用数据,又要保护数据安全。因此如何兼顾发展和安全,平衡效率和风险,在保障安全的前提下发挥数据价值,是当前面临的重要课题。隐私计算在此背景下应运而生,为数据流通提供了解决方案。


隐私计算以多方安全计算、联邦学习、可信执行技术等为基础,为流通过程中数据的“可用不可见”提供了解决方案,确保原始数据在计算和分析时的安全性和私密性,目前已在医疗、政务、金融、酒店、民航、招聘等领域开始推广应用。隐私计算市场正以前所未有的速度增长,根据CIC灼识咨询的测算,2020年中国隐私计算市场规模接近4亿元,到2025年将达到120亿元,2020年-2025年年复合增长率近100%。随着金融、医疗、政务等各个场景落地,隐私计算将在2030年有望达千亿市场规模。

 “可用不可见”


隐私计算是指在保护数据本身不对外泄露的前提下实现数据分析计算的一类信息技术,是数据科学、密码学、人工智能等众多技术体系的交叉融合。从技术角度解释,目前的“隐私计算”是指使用可信执行环境、安全多方计算、同态加密、零知识证明、差分隐私、联邦学习等系统安全和加密技术。


隐私计算目前有三种主流技术:以密码学技术为主的多方安全计算;以可信硬件领域为主的可信执行技术;基于以上两种技术路径衍生出的联邦学习。


1、多方安全计算
多方安全计算的核心是根据加密原理设计特殊的加密算法和协议,确保输入数据的独立性、传递数据的准确性、计算过程的正确性,同时不能将个人的隐私数据泄露给其他参与者,每个参与者不能从其他参与者那里得到任何输入的信息,只能得到计算结果。


技术原理:多方安全计算的实现包含多个关键的底层密码学协议或框架,被分为不经意传输、混淆电路、秘密分享。


多方安全计算具有较高的安全性,要求敏感的中间计算结果不被泄露,其可信性和性能在各种研究中不断提高,可在基金、征信、供应链金融等场景中实际应用。


2. 可信执行环境
可信执行环境 (TEE) 的核心是通过软硬件方法在中央处理器中构建一个安全区域,保证其内部加载的程序和数据在机密性和完整性上得到保护。数据计算只在这种安全的环境中进行,这是通过依赖可信的硬件来保证数据安全。可信执行环境最基本的属性是隔离,它通过芯片等硬件技术保护数据,并与上层软件协作,同时保持与系统运行环境的计算能力共享。


技术原理:将系统的硬件和软件资源分为可信执行环境和普通执行环境,并使两种环境安全隔离,且具有独立的内部数据路径和计算所需的存储空间。公共执行环境中的应用程序无法访问可信执行环境。即使在可信执行环境中,多个应用程序彼此独立运行,未经授权也不能相互访问。


可信执行环境的通用性高,开发难度低,在通用计算和复杂算法的实现上更加灵活,适用于数据保护要求不是特别严格的场景,如区块链、公司安全等。


3. 联邦学习
联邦学习的核心是分布式机器学习,通过中间加密数据的循环和处理来实现多方联合机器学习训练,而不需要将本地原始数据存储在数据库中。保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。


技术原理:联合学习的目标是实现联合建模,在不聚合参与者原始数据的情况下保护终端数据的隐私。根据数据集类型的不同,联邦学习分为横向联邦学习、纵向联邦学习与联邦迁移学习。


联邦学习实际上是一种加密的分布式机器学习技术,所有相关方都可以一起构建模型,而无需公开底层数据和底层数据的加密(混淆)形式。它可以实现在不违反数据隐私规则的情况下建立虚拟共享模型,适用于小微企业的金融服务、医疗、零售等场景。


以上三种是隐私计算的主要实现途径和技术,其中多方安全计算具备较高的安全性,但是仅支持一些相对简单的运算逻辑;可信执行环境技术具备更好的性能和算法适用性,但是对硬件有一定依赖性;联邦学习技术则可以解决复杂的算法建模问题,但是性能存在一定瓶颈。

隐私计算行业格局初现


近年来,隐私计算已从小众“圈子”发展成亮眼的新兴行业,更成为商业世界和资本竞逐的热门赛道,国际知名企业开发了许多相关的平台。从目前国外影响力较强的隐私计算开源项目来看,主要有OPEN MIND、Google、Facebook、Intel等玩家。


• OPEN MIND:OPEN MIND在2017年作为全球首家开发隐私计算系统(PySyft)的玩家,主要运用于多方位计算、联邦学习。PySyft是一个灵活、易用的库,能够对深度学习模型进行私有和安全计算,用于安全和隐私深度学习的Python库,它在主流深度学习框架(例如PyTorch和TensorFlow)中使用联邦学习,差分隐私和加密计算(例如多方计算(MPC)和同态加密(HE))将隐私数据与模型训练分离。能够应用到移动终端机器学习、人工智能、数据中心、消费电子、内存安全等场景。


• Google:Google在2018年发布了保密计算开源框架Asylo,支持在可行执行环境(TEE)中开发高安全性的云端和容器应用。2019年陆续开发了TFF (TensorFlow Federated),用于联邦机器学习和多源数据联合计算的开源框架。


TFF提供了一个灵活的、开放的框架,以及两个不同层次的API,即联邦学习(FL)API和联邦核心(FC)API。通过FL API,用户可以对现有的TensorFlow模型进行FL或评估,而无需研究FL算法的细节。但是,目前发布的最新版本的TFF只支持横向FL,没有底层的隐私技术(如HE、MPC和DP)来保护数据安全。因此,TFF只适合实验测试和模拟,无法在真实环境中部署。此外,TFF只支持单机模拟多机训练模型,而不能支持集群部署。


• Facebook:CrypTen是Facebook在2019年10月推出的隐私计算框架,用于多方安全计的框架。其底层依赖于深度学习框架PyTorch。CrypTen目前实现了安全的多方计算,并将在未来增加对同态加密和安全区域的支持。它允许对加密数据进行计算,同时保护隐私。CrypTen将PyTorch平台与能够有效处理加密数据的算法和系统的长期学术研究联系起来。目前能够应用到通讯软件、移动支付、人工智能、数据中心、消费电子等场景。


• Intel:2013年,Intel推出SGX (Software Guard Extensions)可信执行环境隐私计算技术。


SGX是一组用于增强应用程序代码和数据安全性的指令,开发者使用SGX技术可以把应用程序的安全操作封装在一个被称之为Enclave的容器内,保障用户关键代码和数据的机密性和完整性。SGX最关键的优势在于将应用程序以外的软件栈如OS和BIOS都排除在了Trusted Computing Base (TCB)以外,一旦软件和数据位于Encalve中,即便是操作系统和VMM (Hypervisor)也无法影响Enclave里面的代码和数据,Enclave的安全边界只包含CPU和它本身。能够广泛应用到人工智能、数据中心、消费电子、通讯网络、物联网、智能汽车、内存安全等场景。


目前,隐私计算正处于发展早期,但已然成为数据安全新蓝海。在元宇宙、物联网等数据爆发的背景下,产生巨量数据处理需求,隐私计算技术的商业市场令人期待,并且,在隐私计算市场逐渐成熟后,人工智能、分布式账本、边缘计算等新技术将与其融合发展,隐私计算赛道的潜力不言而喻。


作者:CIC灼识咨询总监 汪海峰


来源:荣格-《智能制造纵横》

原创声明:
本站所有原创内容未经允许,禁止任何网站、微信公众号等平台等机构转载、摘抄,否则荣格工业传媒保留追责权利。任何此前未经允许,已经转载本站原创文章的平台,请立即删除相关文章。

收藏
推荐新闻