杨强:“严监管并不必然限制技术的发展”(专访)
隐私立法是社会走向成熟的自然过程

 

《北大金融评论》:目前,越来越多的国家和地区在研究出台隐私保护和数据安全方面的法律,您如何分析这一趋势?

 

杨强:法律的推出是一个渐进的过程。互联网、大数据等新技术、新事物刚刚出现时,人们多是予以拥抱的态度。以大数据为例,华为2012年就成立了专注数据挖掘研究的诺亚方舟实验室。当时“大数据”仍是一个新名词,任正非认为数据会像洪水一样到来,必须提前造好诺亚方舟来应对。此后,随着越来越多的人著书立论,媒体也开始宣布我们进入了大数据时代。而诸如“大数据杀熟”、个人隐私泄露等负面报道也陆续出现,人们逐渐意识到大数据滥用可能会带来的严重影响。

 

大数据滥用问题已在政治领域有所体现。2016年美国总统大选期间,特朗普竞选团队与数据分析公司Cambridge Analytica合作,在未经用户许可的情况下,后者获取了大量Facebook账号的信息,并将之用于大选期间的政治广告,针对性地预测和影响民意选择。再之前,奥巴马团队也曾在大选期间成立了数据科学小组,用精准广告投放来影响选民的决策。

 

从最初鼓吹大数据到现在担忧数据安全,这其实是人类社会逐渐走向成熟的一个自然过程。成熟是需要一段时间的,人们会逐渐反应过来,原来可以帮助人类的工具,同样可以损害人类的利益。正是这种安全和隐私意识的不断形成和增强,为欧盟、美国、中国出台隐私保护和数据安全法律奠定了民众基础。

 

《北大金融评论》:与欧盟、美国等地区和国家相比,中国的隐私保护和数据安全监管政策有哪些特点?

 

杨强:欧盟对隐私保护的监管主要是以《通用数据保护条例》(简称GDPR)为代表。2018年5月,欧盟率先推出了GDPR。GDPR从法律层面明确了两件事情:一是明确数据是谁的。GDPR认为,数据归属于最原始的数据产生者,也就是个人。二是明确什么是不合法的数据操作行为。即所有的数据传输、应用等操作都应取得用户本人的同意,数据不能出服务器,如果机构将获取的用户数据用在用户未同意的任务目标上就是不合法的。

 

美国对隐私保护的监管主要是以加州的《加利福尼亚州消费者隐私保护法案》(简称CCPA)为代表。加州于2018年6月颁布CCPA,这是美国国内最严格的隐私立法。CCPA显著区别于GDPR的一个地方在于,CCPA更注重数据的合法流通,强调了数据的商业化利用,整体更亲技术发展。总的来看,在隐私和数据保护立法方面,欧洲修建的是“水坝”,要求相关技术或绕道而行或就此止步;美国修建的是“水渠”,注重引导技术向前。

 

不同于欧盟和美国,中国取长补短,修建了“都江堰”。既强调“堵”,规定怎么做是不合法的;也强调“引”,明确怎么做是合法的。中国之所以修建“都江堰”,主要是因为,目前机器学习、人工智能已经上升为国家层面的战略,我们的数据分析产业庞大,一方面我们需要大量的数据,另一方面我们又必须确保数据使用的安全合法。值得一提的是,在中国,数据是重要的生产要素,关乎国家安全,而欧美等地的重视程度尚未达到国家主权这一层次。

 

 

新监管形势下的人工智能挑战与机遇

 

《北大金融评论》:在隐私保护、数据安全监管不断加强的背景下,人工智能发展要解决的最关键的问题是什么?

 

杨强:表面上看,GDPR等法律法规会限制人工智能(简称AI)的发展,甚至有许多人认为GDPR会带来AI寒冬。但现在来看,GDPR其实是具有前瞻性的,它从侧面激励了技术人员要更加具有革新(Innovative)意识。我们现在开展的联邦学习(Federated Learning)等隐私增强技术,正是因为有这些法律的限制,才真正有动力去发展。当然,对于隐私保护和数据安全,法律不是解决所有问题的答案,技术也不是。

 

当前,AI发展需要解决的一个非常重要的问题就是,如何实现“数据可用不可见”。即人们需要的往往只是计算的结果,并不需要原始数据,如果能减少甚至不传输数据,一些隐私问题就能较好地解决。

 

实现“数据可用不可见”,要依次解决“有没有用”“可不可用”“可不可见”等问题。首先,数据在什么情况下是可用的,数据本身存在有用和无用之分,有用的数据也分为法律上的可用和不可用;什么样的数据是有用但是不可用的,这个问题应该由立法者来回答。其次,在数据可用的情况下又分为可见和不可见两种情况,可见就是数据被他人观察到也无事,比如个人穿衣打扮;不可见就比如收入、住址等隐私信息并不想让别人知道。再次,数据可见还是不可见,这个问题应该由法律人士和技术人士共同来回答。

 

上述的每一个问题维度都包含有不同的层级。例如,可见到什么程度,是50%还是70%等。只有真正解决了数据的“可用不可见”问题,数据属于谁、谁可以储存、谁可以处理、谁可以加工、谁可以交易等一系列操作才能变得合法可行。

 

《北大金融评论》:数据严监管是否会抑制人工智能领域内的技术创新?是否会影响中国人工智能产业的全球竞争力?

 

杨强:首先,技术创新和监管立法之间其实是一种螺旋式上升的关系。因为新技术诞生之初,人们很难预测出后续一定会哪些有害的事情出现,只有让新技术先跑一段,然后发现一些风险,再通过立法等形式加以限制和规范。而后,技术又会通过再次创新来满足这些法律法规要求,新的技术突破又会产生新的机会和风险,需要法律的再完善。

 

在现实中,如果某种技术从长期来看会有违道德或者触犯法律,但当下存在监管套利空间,这种所谓的创新一开始就不应该启动。换个角度来说,如果在严监管的条件下,现有的技术还能做到以前无监管时一样的事,那这样的技术才是真正意义上的“牛”技术。因此,严监管并不必然限制技术的发展,其结果取决于技术人员将其看作是阻碍还是激励。

 

相较于美国,中国的创新容忍度比较高。比如,美国大型科技公司(Bigtech)很难设立金融子公司,甚至连支付服务都是由PayPal等第三方公司提供。但美国科技公司的创新力却有目共睹,Google旗下的DeepMind团队甚至拥有数百名科学家。因此,对于中国而言,想要在全球技术竞赛中立于不败之地,除了稳步推进高校的基础研究之外,还应更多地鼓励商业企业层面的科研创新。

 

 

《北大金融评论》:技术迭代可以不断提升AI模型的解释力度,但模型终归要走出去直面信任问题,算法是否真的像其所标榜的那样安全?应如何解决这种技术上的信任问题?

 

杨强:这很大程度上是一个标准测评问题。目前,信通院已发布多个隐私计算相关的标准,建立的测评中心可以检测隐私计算平台的安全性和可用性。而终极的安全策略就是开源。在开源合作中,各参与方都打开自己算法的黑箱,如果所有人都无法检测出有人在代码里故意留后门,那么平台就可以被认为是充分安全可靠。

 

标准测评对于多方建模和隐私计算至关重要,但测评不能由私人部门来做,因为其背后存在诸多利益,容易引发悖德行为。标准测评一定是一项由政府部门提供的基础设施。

 

符合伦理原则的技术创新前景

 

《北大金融评论》:今年年初,有国外学者提出了“伦理即服务”概念,运用科技工具等将抽象的伦理原则转译为具体的服务措施,以推动人工智能伦理的实践和落地。您如何看待“伦理即服务”这一理念?

 

杨强:人们说“科技向善”,“向善”其实就是一个伦理问题。无论是伦理还是向善,他们都是一个关于时间的函数。例如,在当前的碳中和目标下,有越来越多的企业开始重视ESG绩效。实际中,ESG践行较好的企业往往收益也较好,与之类似,符合伦理要求的企业,相对来说发展也会比较稳固。特别是,当不符合伦理被视作违法时,企业的伦理成本就变得显性了,而能提供伦理咨询、伦理校正服务的中介机构,就可以把这种成本和风险降下来。

 

……
 
本文完整版刊登于《北大金融评论》第9期