大数据风控行业风波不断,相关部门大力整顿爬虫业务之际,用户数据隐私保护成为金融科技行业待解难题。昨天,国内领先的金融科技企业360金融宣布成立隐私保护与安全计算研究院,引入联邦学习技术发力大数据隐私保护研究。
未来,360金融将投入大量资金和研发力量,并联合行业合作伙伴,营造健康数据生态,共同制定解决数据安全问题的金融科技方案。这是继谷歌、苹果、腾讯、阿里之后,隐私保护机器学习进入金融科技领域的重要尝试。
360金融隐私保护与安全计算研究院院长由360金融首席数据科学家沈赟担任,研究院与上海交通大学计算机系-360金融人工智能联合实验室紧密配合,前期先从用户层面落地,后期将致力于构建产业联盟,制定行业标准。
隐私保护与数据共享的两难选择
进入9月以来,中国的金融科技行业进入了一个前所未有的“整顿期”。已有多家第三方大数据公司被纳入调查行列。随着客户自身越来越重视隐私保护,监管也在数据获取的合规性方面不断加大力度。
欧盟早在2016年就颁发了《欧盟数据保护通用条例》(General Data Protection Regulation),美国加州在2018年也出台了《2018加州消费者隐私法案》(California Consumer Privacy
Act of 2018),同年9月,《十三届全国人大常委会立法规划》发布,《个人信息保护法》《数据安全法》均在“条件比较成熟、任期内拟提请审议的法律草案”之列。
在用户隐私保护立法的大趋势下,如何在保护数据安全和用户隐私的前提下,进行数据分析和建模,已经成为学界和业界着手研究的前沿课题。
360金融隐私保护与安全计算研究院院长、360金融首席数据科学家沈赟表示:“金融与科技的融合,极大程度上取决于对数据价值的深挖程度,而如何兼顾隐私性与可用性的关系,既是企业必须面对的道德底线,也是考验企业技术是否过硬的先决条件。”
沈赟指出,随着政策对隐私数据管控的趋严,从业企业对于自身积累数据的保护意识提升到前所未有的高度,此举虽然在短期内断绝了隐私泄露的风险,但从长期出发,却加深了数据孤岛给金融科技落地和应用带来的难题。
“我们的目标是想打通数据孤岛,通过自身的安全基因,凭借多年的技术积累,在利用技术保护数据安全的情况下,实现数据的共享和价值的传递。”
构建新型机器学习计算框架
为实现这一目标,360金融在安全多方计算、
同态加密、差分隐私、联邦学习等技术领域都进行了部署,并通过实际业务数据,训练更安全的模型,同时链接多方孤岛数据提升模型性能。
具体来看,利用同态加密,对加密后的数据直接进行运算,相比较有高风险泄露数据的明文计算,这种方式在保证计算正确性的情况下,从根源上确保了用户隐私不被盗用、窃取,同时在处理过程中也实现了全程“封闭”。
另外,利用差分隐私技术降低暴露训练数据中敏感信息的可能性。差分隐私是建立在对随机算法的约束之上的,限制攻击者在得到带噪中间件后,对原数据的推导能力。再结合安全多方计算,联邦学习等技术,实现联合多方分布式训练并更新模型。这种方法不需要上传数据,在保持模型预测性能的情况下,比传统方法更加有效地保护了用户信息。
360金融隐私保护与安全计算研究院所关于隐私保护机器学习的研究,一方面是用户层面的联合训练模型,即联合多个客户端本地数据,通过计算的中间参数,联合更新模型;另一方面是数据机构之间的联合建模,编写了新型的机器学习算法,机构之间不再需要互传原始数据,这种新型算法训练的模型可以评估出数据有效性,也可以部署到线上进行联合推断预测。
此外,构建新型机器学习计算框架,实现灵活易用的隐私保护计算平台,推动制定监管认可的行业标准,也将成为研究院未来的重点研究方向。
沈赟强调:“从整个行业来看,数据规模急剧增长,数据类型更加多样,应用场景更加多元,都将成为用户隐私保护和数据安全的‘不安因素’。研究院将秉持公司安全属性,将概念阶段的技术实际应用与金融场景,实现可落地方案的解决,带动新技术的应用及跨产业的融合与创新。”
沿袭360安全基因,多角度全方位技术布局
依托360集团在安全领域的十多年积淀,360金融的人工智能技术在保障用户隐私层面已经发挥着巨大的作用。
一方面,在技术层面进行隐私数据识别、数据加密、安全存储,通道加密等多方面工作,实时监测是否有黑客入侵偷取数据;另一方面,通过管理机制,将人工智能技术应用在各个环节,不仅可以降低成本提升效率,也能最大程度避免人力介入,从而保障用户的隐私安全。
近一段时间,360金融在技术领域布局可谓动作频频。10月16日,与上海交通大学共同设立人工智能联合实验室,深挖人工智能在业务中的落地应用;本周,组建360金融技术委员会,整合公司技术力量,搭建整体技术架构;继而又成立隐私保护与安全计算研究院,迈出金融科技行业在前沿领域探索中领先的一步。
可以期待,360金融的技术版图还将持续扩张,在数据驱动与AI赋能的道路上奋力前行。