他总结了数据安全的五大风险:
一是外部攻击威胁。包括黑客攻击,数据泄露事件,以及这几年愈演愈烈的勒索软件、挖矿等攻击事件,与日俱增;
二是内部安全风险。对于企业来说,拥有大量高价值的数据,因此要考虑内部控制和反舞弊风险,防止内部对数据的滥用、误用及窃取;
三是数据第三方风险。企业数据面临大量的交换、共享以及不可控的数据边界,比如端侧App等,这其实不属于企业业务本身所属的资产范围,但是在非受控的三方环境中怎样保证数据安全,也是比较大的挑战;
四是合规/治理风险。对于诸多设施、应用、服务,如何清晰地了解数据分布的全景图,制定合理的解决方案和治理策略,也是一个挑战;
五是供应链风险。在数据供应链以及软件供应链等方面都面临一定风险。
面对如此多的风险,在数据的产生/获取、传输、存储、使用的过程中,每一个环节都需要做安全防护,数据如何安全有效治理。李滨认为,“如此多的数据安全环节都需要安全防护,每个环节涉及的产品技术都有好几种,那么这个解决方案本身就是问题所在。因此我们在数据安全和隐私保护时不仅要强调过去的安全性还要注重高效率、高性能、可靠性以及经济性。”
最后他分享了腾讯的云原生数据安全实践,讲述了腾讯云在数据安全领域的实践和探索。
五、潘碧莹:AI隐私终端安全与实践
中国电信联邦学习发起人,研究院终端技术与标准研究员潘碧莹,带来了主题是《AI隐私安全研究与实践》的演讲。主要介绍了AI数据隐私安全的背景和现状以及关键技术,还有中国电信在AI数据隐私安全的实践工作。
文章插图
从2018年开始,手机开始具备AI算法的计算加速能力。随着计算能力提升和能效大幅度的提升,催生出了一波图象优化、生物特征识别、智能问答、语音合成、文本识别等等的AI应用在终端上面的广泛使用。但随之而来也引导出了AI隐私终端的安全问题。
潘碧莹从终端隐私和AI应用隐私两个方面揭露了数据安全所面临的问题,一是自动化决策的合规问题,二是数据采集和访问的合规问题。比如个人信息采集更便利、权限管理等问题,在AI应用隐私方面,存在错误授权过渡索权、超范围收集个人隐私以及在用户不知情的情况下收集个人隐私等问题。这让用户产生担忧。
目前国际主要组织,例如欧盟,还有中国、英国、美国等都在制订AI隐私安全方面的政策法规。
随着标准的完善,AI数据隐私安全相关的关键技术也逐渐成为重要支撑。但是差分隐私、多方安全计算以及联邦学习在AI终端上面的应用,还存在一些难点。比方,差分隐私是一种以损失精度为代价的隐私保护机制;多方安全计算需要各参与方在交互通信来实现加法和乘法的操作,所以如何设计协议,降低通信开销成为应用难点;联邦学习的终端的算力与模型训练的算力需求还有一定的差距以及用户数据分布的问题,导致联邦协定在AI终端上面成为一个应用难点。
潘碧莹表示:“中国电信积极参与主导标准制定,以及构建平台产品来助推AI数据隐私安全保护。”
中国电信在GSMA成立了TSGAI工作组,促进人工智能在移动设备上的实施。在今年的时候也发布了业界第一份AI终端规范。以及在今年三月份,中国电信在IEEE成立了P2986工作组,主导联邦学习隐私安全要求标准,目前有18家公司和研究机构参与。同时构建诸葛AI平台,这一平台是具备中国电信特色可商用的联邦学习平台。
推荐阅读
- 隐私|小米应用商店移除32位包必传限制,开发者可自主决定上传APK类型
- 浙江大学|IEEE正式推行首个隐私保护机器学习国际标准 蚂蚁集团参与制定
- 瀚巍微电子|融资丨「瀚巍微电子」完成8000万人民币Pre-A+轮融资,光速中国和高榕资本联合领投
- 春华资本|植物蛋白食品科技企业星期零获春华资本领投1亿美元B轮融资
- 送上门|快递不用送上门?你可能没有意识到,你被资本家PUA了
- 店铺|当心!你的旧手机可能会泄露个人隐私数据,提前清空也没用
- 脸书|违反数据隐私规则,谷歌脸书遭法国罚款2.1亿欧元
- 操作规程|拟加码隐私保护快递运单不得“裸奔”
- 个人隐私|国家计算机病毒应急处理中心监测发现 20 款违法 App
- 债券|洞见科技“隐私计算+资管”项目成功入选