“人脸识别”,我们还能蒙受几多风险?

  • 时间:
  • 浏览:143
  • 来源:世界杯买球盘口网址app

新冠肺炎疫情在全球规模内暴发之后,众多科技企业都在遭遇一场重创。

谷歌公司宣布取消6月之前预期举行的全部线下运动;苹果公司关闭了大中华区之外的所有直营店,原定于3月底举行的春季新品公布会或将取消。纵然根据最乐观的预计,在疫情的影响下,全球科技行业的希望至少会推迟半年到一年。

挑战之下也有机缘并存。《人类简史》的作者尤瓦尔·赫拉利克日在接受多家媒体采访时表现,只管新冠肺炎、艾滋病、埃博拉病毒已经夺走了无数人的生命,但21世纪盛行病导致的死亡在总人口所占比例,比石器时代以来的任何时候都低。

由于人类科技的进步,对疫情的相识更多,应对疫情的措施也更多。在全球配合反抗疫情流传的历程中,科技信息的共享尤为关键。赫拉利的看法,似乎与不少科技巨头不约而同。

在已往的两个月期间,中国互联网企业已率先为同行做出了示范。而从 3月以来,苹果、微软、谷歌等国际互联网企业已经在运用大数据、信息追踪等技术手段协助各国政府控制疫情的生长。另一方面,Facebook等社交平台也在停止疫情期间的虚假广告,攻击“污名化”与歧视言论。

在这场疫情战中,科技为人类带来的优势已毋需多言。但随科技而来的各种风险又如何规避呢?大数据的运用、人工智能的探索对隐私宁静、网络犯罪、社交伦理造成了史无前例的打击。科技的工具属性弱化的同时,是否可能酿成攻击人类的危险武器呢?

科技的开发者与治理者如何思考和应对,对于我们明白这一系列的棘手问题也许有更为直观的资助。下文摘编自《工具,还是武器?》,在这本书中,微软总裁兼首席法务官布拉德·史女士(Brad Smith)与卡罗尔·安·布朗(Carol Ann Browne)配合就数字化时代下的网络宁静、小我私家隐私和情况可连续性等问题提出了自己的看法。作者和他们领导的团队在实践中的探索,对于科技行业以致每一位普通人都有着借鉴和启示意义。

原文作者 | [美]布拉德·史女士、卡罗尔·安·布朗

《工具,还是武器》(美)布拉德·史女士、卡罗尔·安·布朗著,杨静娴、赵磊译,中信出书团体2020年2月版

1

许多人已经习惯了人脸识别

而不是用密码解锁

2002年6月,史蒂文·斯皮尔伯格执导的新片《少数派陈诉》首映。这部影戏是凭据科幻小说作家菲利普·迪克1956年的著名短篇小说改编的,以2054年已消灭了犯罪的华盛顿特区为配景,由汤姆·克鲁斯主演。剧中,汤姆·克鲁斯饰演精英警员部门“预防犯罪小组”的一位主管,这个小组的职责是在凶手实施犯罪前逮捕他们。该小组有权凭据三位“先知”所看到的意象实施逮捕,因为这三小我私家拥有洞悉未来的超自然能力。可是很快,“先知”预测克鲁斯自己将犯下行刺罪行,因此他不得不开始逃亡,躲避自己部门的追捕—在一个所有人和所有行为都受到追踪的都会里。

《少数派陈诉》(2002)剧照。

15年之后再转头看这部影片,值得庆幸的是,这种执法方式看似有些牵强。不外今天,《少数派陈诉》中的一个场景似乎远远早于2054年就已经成为现实。影片中,克鲁斯在逃亡时走进了一家盖普店。这家零售商拥有一项技术,可以识别每一位进店的主顾,并会立刻开始在一个显示屏上展示它认为主顾会喜欢的衣服图像。有些人可能以为这个服务很有吸引力,但其他人可能会以为它们很烦人甚至令人毛骨悚然。简而言之,进入一家这样的商店,就好比我们有时候浏览完网络后再去看社交媒体信息,却发现上面有我们刚刚在网页上浏览之物的广告。

在《少数派陈诉》中,斯皮尔伯格希望观众思考,科技如何既能被使用也能被滥用——科技可被用来在犯罪实际发生前消除犯罪,可一旦出了问题,它也可能被滥用来侵监犯权。在盖普商店里识别克鲁斯的技术是依赖于嵌入他体内的一块芯片。在21世纪的前20年,现实世界的技术进步甚至已经凌驾斯皮尔伯格的想象,因为今天已经不需要这样的芯片。人脸识别技术使用基于人工智能的盘算机视觉与相机,辅以云数据,可以识别进入商店的主顾面貌,无论他们是上周还是一小时前曾经来过。这项技术正在为科技行业和政府缔造一个先手时机,如何用一种重点突出而又切实详细的方式来处置惩罚人工智能的道德和人权问题,而它们能否抓住这个时机,就要看它们怎样决议来羁系人脸识别技术了。

对于大多数人来说,最初简朴场景的应用,如编目和搜索照片,现在已经变得日益庞大。许多人已经习惯了依靠人脸识别,而不是用密码,来解锁iPhone或Windows条记本电脑。其应用不会仅止于此。

《越狱》第五季 (2017)里的人脸识别模拟。

2

面部和指纹一样奇特

现在,一台电脑已经可以完成我们险些所有人从一出生就能做的事——识别人们的脸。对我们大多数人来说,这在一开始是能够认出妈妈的能力。养育孩子的兴趣之一,就是在进入家门的时候看到蹒跚学步的孩子激动地向你扑来。这种会一直连续到青少年时期的反映有赖于人类天生的人脸识别能力。虽然这是我们日常生活的基础,但我们险些从不停下来思考是什么使它成为可能。

事实证明,我们的脸和指纹一样奇特。我们的面部特征包罗瞳孔之间的距离、鼻子的巨细、微笑的样子和下巴的轮廓。盘算机可使用照片来绘制这些特征并将它们编织在一起,并以此为基础建设一个数学方程,这些数学方程可以通过算法来会见。

人们正在把这项技术应用到世界各地,以便改善人们的生活。在某些情况下,这样做是为了利便消费者。澳大利亚国民银行正在使用微软的人脸识别技术开发一种服务,可以让主顾走到ATM前,无须银行卡即可宁静取款。这些ATM可以识别主顾的面貌,然后他们就可以输入取款密码并完成生意业务。

在其他场景中,这种技术可带来更大的利益。在华盛顿特区,美国国家人类基因组研究所正在使用人脸识别技术资助医生诊断一种被称为DiGeorge综合征(DGS)或22q11.2缺失综合征的疾病。这是一种多发于非洲、亚洲或拉丁美洲人口的疾病。它会导致种种严重的康健问题,包罗心脏和肾脏的损伤。患有这种病的人也经常带有特定的面部特征,这些特征可以通过电脑使用人脸识别系统加以识别,从而资助医生诊断出需要资助的病人。

这些场景说明晰一些重要和详细的方法,以便使人脸识别可以用于造福社会。这是21世纪的新工具。

种种可以用于监控的电子设备。

然而,和许多其他工具一样,它也可以酿成危险的武器。人脸识别很容易与更广泛社会问题交织在一起,并提出了一个至关重要的问题:我们希望这种形式的人工智能在我们的社会中发挥什么作用?

2018年夏,弗吉尼亚州一位自称“自由软件修补者”的人在推特上公布了一系列关于微软与美国移民与海关执法局(ICE),签订条约的消息,这些消息源于当年1月微软在公司官方营销博客上公布的一篇文章。坦率地说,公司里的每小我私家都已经忘记了那篇博文。不外,那篇文章表现,微软向ICE提供的技术已经通过了极高的宁静门槛,将被ICE部署。文章还表现,微软公司对于能够支持该部门的事情而深感自豪,而且另有一句话提到了ICE使用人脸识别技术的潜力。

2018年6月,特朗普政府决议在美国南部墨西哥疆域把非法入境者的孩子与家人离开,这迅速成为一个爆炸性问题。公司几个月前揭晓的一份营销稿现在看来已大不相同,而人脸识别技术的用途看起来也完全差别。人们担忧ICE和其他移民机关可能会把像人脸识别这样的技术应用到事情中。这是否意味着,当移民在都会街道上行走时,毗连到云端的摄像机可以用来识别他们的身份?这是否意味着,鉴于这项技术的现状,以及它可能发生偏差的风险,它可能会错误辨识某小我私家并导致其被错误拘留?这只是许多问题中的两个。

根据老例,我们首先要弄清楚公司与ICE的条约到底包罗了什么。

经由深入观察,我们发现这份条约基础没有被用在人脸识别上。谢天谢地,微软也没有到场任何在疆域线上将孩子与其家人离开的项目。相反,这份条约其实是资助ICE将其电子邮件、日历、消息和文档治理事情转移到云端。这与我们在美国和世界各地与客户(包罗其他政府机构)互助的项目类似。

只管如此,这件事仍然发生了一个新的争议。

3

责任底线

有些人正在尽力宣扬科技公司应该接纳主动行动,对于我们阻挡的政府政策,终止为政府机构提供所有服务。科技现已成为我们生活中一个关键的基础设施,如果不能实时更新技术——或者更糟的是,简朴做出终止技术服务的决议——可能带来种种意想不到的结果。正如萨提亚在我们的内部谈话中多次指出的那样,政府正在以电子邮件为工具资助非法移民家庭团聚。如果我们把邮件系统关掉,谁知道会发生什么。

这让我们得出结论,抵制美国政府机构是错误的做法。但主张接纳这种行动的人,包罗我们自己的一些员工,提出了一些正确的问题。例如,人脸识别技术带来的挑战需要受到更多关注。

经由深思熟虑,我们得出结论,这项新技术应该受到新的执法法例约束。这是掩护民众隐私需求,化解偏见和歧视风险,同时使创新得以继续的唯一途径。

这一点凸显了在公共宁静与人权由来已久的矛盾之间的艰难权衡。它还讲明了许多有关人工智能的新型伦理道德决议的主观性质。固然,我们同样担忧,正如那位团队向导和其他人所指出的那样,如果我们拒绝提供这项服务,可能会有其他公司攻其不备。在这种情况下,我们不仅会丢掉生意,还不得不在其他人资助将技术用于我们所阻挡的有害目的时只能袖手旁观。不外,我们权衡了所有这些因素,最终得出结论,我们需要实验给这种新技术的生长奠基某种类型的道德基础。这样做的唯一措施就是拒绝将其用于某些用途,并推动更广泛的民众讨论。

这种原则性的方法在加州当地的一个警员部门联系我们时经受了磨练,他们表现,他们想为自己的所有车载和手持摄像机配备一种能力,使其可以拍摄被拦下的人的照片,甚至包罗例行检查时被拦下的人,并检察他们是否与其他罪行的嫌疑人数据库相匹配。我们明白他们的逻辑,但向他们建议,由于人脸识别技术仍然不成熟,因而无法在这种情况下部署。至少在2018年,如此使用这一技术将导致过多的错误匹配,并针对被错误识此外人发出警报,特别是如果他们是有色人群或女性,因为针对这两类人群的错误率仍然较高。我们拒绝了这项生意业务,并说服了警员部门放弃将人脸识别用于这一目的。

这些履历提供了一些启发,资助我们思考可以应用于人脸识此外原则。但我们担忧,如果我们走上这条伦理大道,但被那些基础没有实施任何防范或限制措施的公司削弱,无论这些公司是在西雅图的另一侧,还是在太平洋的另一侧,则我们的做法都不会发生什么实际影响。与许多基于人工智能的技术一样,人脸识别也会随着大量的数据积累而革新。这就使公司拥有动力尽可能多地举行早期生意业务,从而导致商业竞争的风险,而科技公司将被迫在社会责任和市场乐成之间做出选择。

英国Channel 4与美国NetFlix公司出品的《黑镜·第三季》(2016)构想了一个盘算、排位小我私家评分的世界。分数决议了他们能够过上怎样的生活。

防止这种恶性竞争的唯一措施是确立一个支持康健市场竞争的责任底线,而一个坚实的底线基础要求我们确保这项技术以及开发和使用它的组织受到法治的约束。

我们从以往针对其他技术所实施的羁系中罗致了履历。在许多市场中,兼顾各方利益的平衡羁系方式为消费者和生产者双方缔造了更康健的动态关系。在20世纪,汽车工业曾花了几十年的时间来抵制羁系要求,但今天,人们广泛认识到,执法在确保强制安装宁静带和气囊,以及更高的燃油效率方面发挥了重要作用。同样的情况也适用于航空宁静以及食品和药品治理。

固然,谈论羁系的须要性是一回事,而界定什么样的羁系最为合理则是另一回事。2018年7月,我们宣布了一个我们认为需要思量的问题清单,并就可能的谜底征求人们的意见。讨论首先在员工和技术专家中展开,但很快扩展到全国和世界各地,包罗美国公民自由同盟这样努力到场这个问题讨论的公民自由组织。

我们不再像大多数科技公司那样,坚守抵制政府干预的传统。我们以前举行过那样的抗争。相反,我们已经认可并支持我们心目中更努力但更平衡的羁系方式。这也是我们早在2005年就呼吁美国联邦隐私掩护立法的原因之一。我们认为,无论是对科技行业还是对社会,这种做法从普遍意义上来说都比完全依赖科技行业自行解决一切问题的做法要好得多。

4

行动之前:我们能做什么?

在更迅速地开始行动之余,深思熟虑并确保迈出正确的前几步也很重要。在这一点上,我们相信我们拥有一系列想法来应对人脸识别技术。我在华盛顿特区的布鲁金斯学会宣布了我们对新立法的主张,并公然揭晓了我们提案的更多细节。然后,我们开始巡回推广这一主张,在接下来的6个月里,我们在美国和世界其他8个国家的公共运动和立法听证会上对它举行了推介。

《排除挚友2:暗网》(2018)剧照。

我们认为,立法可以解决三个关键问题,即偏见风险、隐私和对民主自由的掩护。我们相信,一个运作良好的市场有助于更快地淘汰偏见。我们遇到的客户都没有兴趣购置错误率高,并导致歧视的人脸识别服务。但如果客户缺乏信息,市场就无法正常运转。

为了资助淘汰歧视风险,我们认为新的执法还应该要求,部署了人脸识此外组织首先应培训员工审查效果,然后再做出关键决议,而不是简朴地把决议权交给电脑。除此以外,我们担忧,如果一个组织在部署人脸识别时并未根据该技术设计时预期的方式,发生偏差的风险可能会加剧。训练有素的人员则有助于解决这个问题。

在某种水平上,一个更棘手的问题是,什么时候应该允许执法部门使用人脸识别技术针对特定小我私家举行连续的监视。

民主始终取决于人们相互晤面和攀谈,并在私下和公然场所讨论自己看法的能力。这有赖于人们能够在没有政府连续监控的情况下自由行动。

人脸识别技术的许多政府用途是用于掩护公共宁静和促进更好的民众服务,并不会引起上述担忧。可是,如果将无处不在的摄像头、庞大的盘算能力和云端存储联合起来,政府可以使用人脸识别技术来连续监视特定的人。它可以在任何时候做到这一点,甚至可以连续这样做。而以这种方式使用这项技术则可能会导致规模空前的大规模监视。

因此我们认为,执法只有在下列情况下才可以允许执法机构使用人脸识别来对特定的人举行连续监视,即执法机构已经获得了法庭下令(如对这种监视的搜查令),或是在紧迫情况下,如人类生命面临迫在眉睫的危险。这将为人脸识别服务建立规则,这些规则与美国现在通过手机生成的GPS位置跟踪小我私家的规则类似。正如美国最高法院在2018年做出的裁决,如果没有搜查令,警方将不能要求显示手机所在的手机记载,因此无法获得某人的实际行动轨迹。正如我们所说:“我们的面貌是否应该获得和手机同等的掩护?在我们看来,谜底固然是响亮的‘是’。”

新京报漫画/陈冬

最后,显而易见的是,人脸识此外羁系也应该掩护商业情况下的消费者隐私。我们正迅速进入一个时代,在这个时代,每家商店都可以安装摄像头,通过实时人脸识别服务毗连到云端。从你走进购物中心的那一刻起,无论你走到那里,都有可能不仅被照相,而且被电脑识别。购物中心的老板可以把这些信息分享给每一家商店。有了这些数据,东家可以相识你上次进店的时间以及你看了什么或买了什么,通过与其他商店共享这些数据,他们可以预测你下一步计划买什么。

我们的看法并不是说新的执法应该克制所有这些技术。相反,我们是致力于资助商店卖力任地使用新技术改善购物体验的公司之一。我们相信许多消费者会接待由此带来的客户服务。但我们同样认为,人们有权知道什么时候使用了人脸识别,提出问题,并有真正的选择。

我们建议,新的执法应要求使用人脸识此外组织公布“醒目的通知”,以利便人们知晓这项服务。我们还呼吁制定新的法例,以决议人们在这种情况下可在何时以及以何种方式举行有意义的控制和同意。后一个问题显然需要在未来几年中开展更多的事情,从而确定适当的执法方法,特别是在隐私执法不如欧洲健全的美国。

创意图片/新京报记者 王远征

另一个有资助的点是思量新执法的适用规模。在某些方面,我们并不需要勉励普天之下都通过立法。例如,如果一个重要的州或国家要求公司为民众和学术测试提供人脸识别服务,那么这个决议将会被宣布并广泛散播,从而起到引领作用。基于这一信念,我们勉励美国各州的立法者在2019年头在全国各地准备召开集会时都划分思量新的立法。

但在消费者隐私掩护和对民主自由的掩护方面,所有司法统领区都需要新的执法。我们认识到,鉴于世界各国政府的差别看法,这一点可能并不现实。因此,仅仅呼吁政府接纳行动是远远不够的。就算美国政府行动起来了,外面另有一个更大的世界。人们永远无法相信世界各国政府都市以切合人权掩护的方式使用这项技术。

政府主导的需要并不能免去科技公司自身的道德责任。人脸识别技术的生长和使用应该与普遍秉持的社会价值观相一致。我们宣布了与我们的立法建议相呼应的六大准则,并将其应用到我们的人脸识别技术中,我们还建立了实施这些原则的系统和工具。其他科技公司和提倡团体也开始接纳类似的做法。

人脸识别问题让我们得以瞥见人工智能的其他伦理道德挑战有可能发生怎样的演变。正如我们所做的那样,我们可以先制定广泛适用的原则,随后在人工智能技术的详细应用和特定场景中对这些原则举行测试。这种方法也适用于具有潜在争议的人工智能应用更可能泛起之时。

更多的问题一定会泛起。而且与人脸识别一样,在遇到每个问题时,都需要针对该项技术可能应用的方式划分开展大量细致的事情。要解决许多这样的问题,最终将需要新的羁系政策与科技公司主动的自我羁系相联合。在面临许多这样的问题时,差别国家和文化也会存在差别的看法。我们需要生长一种更强的能力,使各国能够更迅速、更协作地接纳行动,在经常性的基础上应对这些问题。这是我们能够确保机械将永远由人控制的必由之路。

作者 | [美]布拉德·史女士、卡罗尔·安·布朗

整合 | 李永博

编辑 | 西西

校对 | 陈荻雁

种种可以用于监控的电子设备。