人工智能与社会治理

  • 时间:
  • 浏览:247
  • 来源:世界杯买球盘口网址app

泉源:学术plus作者:临风

在已往几年中,世界各地的公共部门、私营部门、公司、大学和其他组织已经开始处置惩罚许多与人工智能相关的政策问题。在公共部门内,人工智能决议不限于国家政府。除多边机构外,各级地方、州/地域和国家政府一直在应对与人工智能相关的挑战,并试图制定应对这些挑战的政策。这讲明人工智能已经开始影响人类生存的险些每个方面。至少在这个领域,政策肯定落伍于技术进步。政策制定者现在正急于遇上。

人工智能政策制定是新的领域,并没有一套公认的最佳计谋,因此,实践显得尤为重要。加拿大政府在2016年制定了第一个国家人工智能战略。从那时起开始,数十个国家竞相制定自己的人工智能战略和政策,只管内容、目的、机制和资金水平差异很大。正如一位评论员所说,人工智能计谋可以被界说为“最大化人工智能利益,同时最小化其潜在成本和风险的公共政策”。

一、人工智能计谋制定的领域

(一)伦理规范

如此多的组织都在努力界说人工智能的伦理用途,这一事实自己就证明晰一种恐惧,这种恐惧恒久以来一直在引发人们对人工智能的思考,包罗它令人难以置信的气力,以及它可能如何被用于有害和不道德的目的。这种恐惧引发了团体想象力,引发了无数科幻书籍和影戏。在许多其他领域,如科学、技术、政治和人文等,思想家们依旧对人工智能在我们居住的世界中潜在扑灭性应用持保留态度。从亨利·基辛格到斯蒂芬·霍金等名人都警告说,人工智能总有一天会对人类的生存组成威胁。

这种对机械接受的恐惧围绕着“广义人工智能”的生长,这一术语指的是拥有某种超人智能的人工智能系统。广义人工智能还不存在。真正存在的是“狭义人工智能”,即应用于特定任务的人工智能。区别在于:

“今天的人工智能被恰当地称为狭义人工智能(或弱人工智能),因为它被设计来执行较为单一的任务(例如,面部识别或互联网搜索或驾驶汽车)。然而,许多研究人员的恒久目的是缔造广义的人工智能(AGI或强人工智能)。狭义人工智能在任何特定任务(如下棋或解方程)上都可能优于人类,但AGI在险些所有认知任务上都市优于人类。”

对广义人工智能的研究仍处于低级阶段。该领域的研究人员预计,广义人工智能可能在本世纪中叶开发出来,或者需要更长的时间。然而,思量到广义人工智能开发的风险,一些专家主张从现在开始就要审慎行事。他们认为,政府应该在人工智能完善之前,就对人工智能的生长举行掩护,以制止泛起类似终结者的场景。

图片来自网络

在某种水平上,为了逾越人工智能的说法,世界上最大的科技公司,包罗谷歌和微软,一直在高调建立这样的“人工智能伦理”准则。例如,谷歌的人工智能原则列出了责任、宁静和保证人工智能系统公正的答应等内容。这些企业制定AI伦理指南的事情也成为最受关注的部门,主要是因为这些世界上最大的科技公司是以生产人工智能产物而使自己盈利为目的,并希望借此牢固在该领域全球技术向导者的职位。

(二)公正和正义

这一政策领域是人工智能领域中最受关注和争议的领域之一。主要围绕着人工智能系统是否反映、再现、甚至放大了社会问题举行研究。对于如何明白这一挑战,以及如何构建能够反抗、预防或最小化这类问题的人工智能系统,人们展开了一场连续的讨论。当涉及到人类性别特征、社会经济职位、性取向、种族和宗教职位的人工智能系统决议时,这种争论尤其令人担忧。

人工智能系统发生的决议,对许多人来说,可能是很是真实的。例如,这种系统可以决议谁能够获得公共和私人资源和服务,谁受到国家政府的监视,谁在招聘历程中被筛选,给消费者的信用评分是几多,而且可以决议警员和法院如何解释和执行执法。这些决议历程中的每一个都在筛选人们,或者对他们举行排序,正面和负面的影响取决于选择的状态。

正义和公正问题一方面涉及人工智能工具如何构建,另一方面涉及人类如何使用这些工具。缺乏有效性意味着人工智能工具没有“对真实世界的忠诚”,这意味着该工具的应用脱离了现实情况。偏差是指人工智能工具如何在预测中系统性地堕落,尤其是对某些种别的人。这种人工智能偏差可能发生在成帧、数据收集和数据准备阶段。在这些阶段,人工智能系统的设计者可以有意地或通过致盲将偏差引入到算法和/或训练数据中,防止设计者看到他们是如何使效果分析发生偏差的。

图片来自网络

有几个引人注目的案例涉及到这种被称为“算法偏见”或“机械学习偏见”。例如,谷歌和亚马逊都遭遇了尴尬的曝光,划分涉及到图像搜索和招聘算法中的偏见。谷歌的图像搜索系统无法准确识别少数民族。对亚马逊来说,它的招聘算法将较高的分数分配给男性。亚马逊的设计者并不希望泛起这种效果,但他们构建的人工智能系统“学会了”凭据算法的性别不平衡设计参数去选择男性而不是女性。

(三)隐私、消费者掩护和数据可用性

隐私和消费者掩护问题也是备受关注的政策领域。人工智能系统可以从收集到的小我私家数据中分析小我私家的评价。因此,政府和企业可以获得大量的行为和人物数据,这些数据形貌了一小我私家的已往,然后被基于人工智能的模型用来预测这小我私家未来的行为。

人工智能为数字隐私政策讨论增加了一个新的层面,涉及到行动者是否有权从小我私家收集的信息类型和数量以及如那边理这些数据的问题。上文提到的欧盟可信人工智能道德准则包罗一个专门针对隐私的准则。该准则称隐私为“基本权利”,称“充实的数据治理”应涵盖所用数据的质量和完整性、与人工智能系统部署领域的相关性、会见协议以及以掩护隐私的方式处置惩罚数据的能力等。

图片来自网络

(四)国家人工智能战略和工业政策

各国政府正在将人工智能的商业生长作为中心目的,制定国家人工智能战略和工业政策。

国家人工智能战略代表了政府试图组织其对人工智能的思考,并因此围绕一系列战略目的调整其政策目的和利益相关者。工业政策并不完全一样。这是一个可延展的观点,但通常指国家对工业生长的直接和间接支持,特别是国家将支持那些被认为对国家经济繁荣和/或国家宁静具有战略重要性的目的工业部门。工业政策工具清单可能包罗设立技术生长基金、国家指导的集群投资(旨在促进地理“集群”效应)、外国技术转让要求(要求外国公司在某些条件下转让其技术)、对工人技术培训有针对性的支持等。

无论名称如何,各国政府一直在试图组织人工智能的战略方法。一项研究称,停止2019年7月,已有41个国家制定了国家人工智能战略,或表现有兴趣制定此类战略。在已经公布框架文件的19个国家中,大多数州(16个)优先思量人工智能的研发,其次是人工智能人才的开发(11个)、人工智能作为工业战略的一部门的应用(9个)、道德和执法准则的制定(8个)、人工智能相关基础设施的投资(6个)以及人工智能在政府中的生长。

2019年,美国政府通过行政下令公布了自己的人工智能战略,强调R&D、尺度和劳动力生长。这份文件是在奥巴马政府2016年公布R&D战略计划和一系列关注人工智能、社会和经济的陈诉之后公布的。同样是在2019年,三名美国参议员提出了一项立法,该立法将建立一项国家人工智能战略,更重要的是,为其提供资金。如果获得通过,《人工智能倡议法案》将在五年内拨款20多亿美元,用于资助一系列运动,包罗建设人工智能协调办公室、几个研究中心,以及建立强大的人工智能评估尺度。

(五)技术尺度

凭据国际尺度化组织,技术尺度划定了“质料、产物、历程和服务需要切合的要求、规范、指南或特性”。通过引入通用术语和规范,技术尺度为市场繁荣提供了基础。详细而言,技术尺度为种种商业运动缔造了基础——允许技术之间的互操作,实现更快速的创新,勉励产物差异化,简化商业条约,降低生意业务成本。

归纳综合地说,政府有一系列的念头来建立(或勉励接纳)强大的技术尺度。在海内,政府有兴趣资助缔造和扩大有希望的海内新技术市场。技术尺度有助于促进这样的市场。可是政府显然也有兴趣掩护公共利益,而技术尺度又可以促进这一目的。例如,公共卫生和宁静思量,从食品得手术到运输,以及许多其他民众关注的领域,是制定技术尺度的首要思量。

最需要人工智能相关技术尺度的地方莫过于自动交通系统。只管现在有许多类似行动,但没有一个国家为自动系统制定一整套尺度。美国政府根据其对技术尺度的总体做法,只支持为自主汽车制定“利益相关者驱动的自愿技术尺度”,并倾向于非政府组织,如国际汽车工程师学会(原汽车工程师学会)来举行研究生长。美国几十个州已经思量或颁布了与自动车辆有关的开端立法,一些公司的目的是建设自己的(国家级)技术尺度,以实现自主车辆测试。

(六)创新生态系统

图片来自网络

国家和国家以下各级政府都对创新生态系统的建立很是感兴趣。世界领先的技术创新生态系统——如加利福尼亚湾区等都会和地域——不仅发生了世界上大部门的应用技术,而且还为当地住民缔造了大量财富,进而为他们所在的国家缔造了大量财富。鉴于人工智能相关技术将带来的收益,政策制定者专注于确保他们能够在自己的规模内分享这一财富缔造。

在国家和国家以下各级,许多公共部门政策和投资支持(或阻碍)创新生态系统的建立和增长。这种政策和投资可以与支持工业政策的政策和投资类型重叠,只管民众到场建设创新生态系统通常不被列为工业政策。

(七)赛博空间

人工智能使网络宁静庞大化,因为它极大地加速了网络空间中的问题和机缘。网络宁静行业将人工智能视为攻击网络犯罪和黑客攻击的工具。因为其相信人工智能能比人类或软件更快更有效地完成这些任务。然而,与此同时,攻击者也可以使用这些优势,他们可以使用人工智能更快地发现和使用软件毛病,生成更多的恶意软件以压倒网络防御,并建立更庞大和适应性更强的基于电子邮件的诈骗(网络钓鱼等)。

图片来自网络

这种情况下,越来越多的关注点是“反抗性ML”(或“反抗性AI”),当攻击者试图破坏、愚弄或窃取ML/AI系统时,就会发生这种情况。反抗性攻击有几种变体,例如,“模型反转”(攻击者获取用于训练系统的训练数据)和“模型窃取”(攻击者试图窃取模型的底层算法)。

“中毒攻击”是另一种常见的反抗性攻击,在机械学习模型中插入输入,诱使系统做出与系统设计参数差别的分类决议(是/否、输入/输出等),在中毒攻击中,不道德的行为体欺诈、欺骗、窃贼、敌对的外国政府,等等,利用ML模型如何评估输入,以便以有利于攻击者的方式重新设置效果输出。中毒攻击会在模型的训练阶段对输入数据带来微妙的变化,这些变化设计得足够小,可以逃避研究人员的检测,但总体上却显著到足以在法式输出中发生系统偏差。这种“添加少量经心设计的噪音”可能会发生实际结果,例如,医疗领域的“受骗”人工智能系统可能会下令不须要的医疗治疗,组成医疗保险欺诈。

(八)犯罪、执法、欺诈和欺骗

人工智能是一个强有力的新工具,既能攻击犯罪运动,又能使之成为可能。在攻击方面,

团结国区域间犯罪和司法研究所(犯罪司法所)和国际刑事警员组织(国际刑警组织)是全球一级研究这一系列问题的主要多边机构。2019年,他们公布了一份概览陈诉,认为虽然“许多国家”正在将人工智能应用于执法,但人们普遍对人工智能的效果缺乏相识,执法机构之间的国际协调水平也很低。犯罪司法所和国际刑警组织也正在牵头就这一问题开展全球对话,2019年7月举行了第二次年度执法人工智能全球集会。

(九)公共部门的效能

一个新兴的政策领域涉及人工智能和公共部门,特别是关于政府如何从使用人工智能系统而获益的问题。人们对人工智能对该行业的努力影响充满热情。政府运作是人工智能应用的理想选择,因为它们涉及到基于执法要求的尺度化法式,而执法要求(通常)很少改变。人工智能可以比人工更快、更少的错误处置惩罚这些类型的流程,淘汰积压,提高客户满足度,更容易识别欺诈和滥用,并降低成本。

此外,人工智能可以协助其他重要的政府职能。羁系监视就是其中之一。通过应用人工智能集成技术(除了人工智能之外,另有传感器和远程视频),工厂和工地检查可以变得越发普遍、有效和自制。此外,同样重要的是,人工智能可以生成预测分析,以预测何时何地可能发生严重的不良事件,例如,发电厂的机械故障、肉类包装厂的致病性发作或工厂的化学品泄漏。

(十)成本:财政和能源

另有一个很少被注意但很重要的领域,财政和能源领域。由于涉及人工智能研究的高成本,所以既限制了谁可以到场人工智能系统的开发,又限制了举行研究可以使用几多资源。麻省大学的研究人员在2019年6月揭晓的一篇论文中发现,就这两种资源而言,训练大型人工智能模型的成本都很高。只管人工智能模型有许多,运行它们所需的资金和能量也有很大差异(主要是云盘算需要资金),但研究人员发现这些成本随着模型的庞大性呈指数级增长。

(十一)致命自主武器系统

最后一组政策问题主要在国家宁静领域。这些包罗人工智能和致命武器,特别是“致命自主武器系统”的生长和它们在战场上的使用。对于世界主要大国的国家宁静机构来说,最重要的政策优先事项很简朴:在缺乏对自主武器系统具有约束力的情况下,最重要的优先事项是获得足够的资源来开发、测试和部署集成人工智能的系统,以确保优于本国的地缘战略和军事对手。

图片来自网络

关于人工智能的使用,他们主要体贴的是军事指挥链:谁(或什么)在战场上公布这种杀伤下令,或者至少是指挥链中的谁“决议如何、何时、何地以及为什么使用这种武器”?基辛格认为,鉴于基于人工智能的武器系统的生长缺乏透明度(透明度是所有军备控制的基础),控制基于人工智能的武器系统,包罗执法,也许是不行能的。他的言论意在对基于人工智能的武器系统被允许不受限制地生长可能导致的严重结果发出严重警告。

二、建 议

我们现在正处于一个过渡时期,人工智能已经从潜力走向现实,其庞大的气力已经开始颠覆人类的生存,无论优劣。如果政府希望使用人工智能发挥努力的潜力,并制止人工智能带来的负面影响,就需要确定社会优先事项,制定可操作的战略,然后在实际资金支持下实施明智的政策。

(一)伦理规范

道德和规范声明的建立现在是广为人知的领域。愤世嫉俗者会辩称,这些声明之所以常见,恰恰是因为它们不具约束力,成本很低,对受影响的经济部门没有负面影响,而且标志着良性但往往模糊的制度行动。

可是这里也有一个令人信服的反驳。当通过制度化、公共情况、道德和规范声明举行界说时,可以迫使政府阐明它们最重视的价值观,从而确定它们的最高优先事项。这一历程迫使利益相关者强化他们的论点,并与他人一起协商他们的态度。此外,非约束性流程有助于在更具约束性、因此更难题的决议流程之前,围绕人工智能目的告竣共识。

因此,各国政府应效仿欧盟的做法,建设高级别委员会,由公认和受尊重的主席向导,成员广泛代表社会,并卖力通过严格的法式,形成广为宣传和流传的道德和规范声明。

(二)战略

说到人工智能,预期治理是至关重要的。只管人工智能驱动未来的模式还不清楚,但政府还是应该努力面临人工智能带来的重大的、颠覆性的厘革。首先,政府需要生长可操作且可行的计谋,在努力的偏向上塑造未来,同时制止或最小化人工智能领域中不行制止的负面结果。

综合战略应以道德和规范声明为基础,以资助确定战略目的。理想情况下,人工智能计谋不仅会界说政府希望实现的目的,而且还会界说政府不愿意容忍的效果。此外,重要的是要从一开始就认识到一些战略结果会与其他结果相矛盾。政府需要在一方面瞄准创新的前沿,即成为基于人工智能的初创企业和人工智能驱动工业的全球向导者,另一方面应对人工智能的社会治理结果之间取得平衡。

(三)隐私和数据

由于小我私家数据通常可能会成为人工智能系统的原始质料,所以隐私问题是大多数政策讨论的焦点。从医疗保健、交通运输以致情况掩护等领域人工智能所发生的效益往往越发强大。在掩护小我私家权利和最大限度地发挥人工智能为更广泛的民众带来的潜在利益之间取得平衡,是人工智能决议的焦点。

(四)创新生态系统和人力资本

世界各国政府都将人工智能的生长视为建设和增强创新生态系统的时机,即促进一国境内的创业和新经济部门,以获得随后的经济利益。在建立强大的技术创新生态系统的历程中,存在多种政策关联。包罗研发支出、知识产权掩护、基础设施投资、税收政策、住房政策等等。这种政策上的相互联系对于刺激人工智能相关的创新和其他新兴技术相关的创新同样重要。

(五)致命自主武器系统

吉尔·普拉特(Gill Pratt),一位前美国国防高级研究计划局(DARPA)的机械人专家,在2015年一篇被广泛引用的论文中指出,机械学习、盘算能力、数据和能量存储系统以及传感器的进步将在人工智能机械人领域带来“寒武纪大发作”,他的意思是“机械人多样化和适用性的大发作”。对于世界军队来说,人工智能系统的这种进步是不行抗拒的。人工智能领域发生的,运输、供应、后勤、监视以及作战能力方面的进步,远远凌驾当今任何军队所拥有的。

这就是逆境的症结所在。在一个对自主武器系统没有任何约束性和可执行性条约的情况下,各国认为他们别无选择,只能鼎力大举生长此类系统。正如哈佛大学肯尼迪学院2017年关于人工智能军事用途的研究陈诉的作者所言,由于机械优越的作战能力,各州“将面临越来越大的诱惑,要么授予机械更高级此外权力,要么面临失败”。

各国投资技术开发以确保自身宁静。正如盘算机、全球定位系统技术、卫星和许多其他技术一样,世界各国军方正投入巨额资金用于人工智能开发,因为他们担忧在这一关键技术上落伍于竞争对手。事实上,美国军方是人工智能研究的全球最大资助者之一:美国国防部认为,相对于地缘政治对手,美国“必须接纳人工智能来维持其战略职位”。

注:原文泉源网络,文中看法不代表本民众号态度,相关建议仅供参考。