揭秘OpenAI:背离马斯克建立初衷,理想主义被盈利压力碾碎

  • 时间:
  • 浏览:135
  • 来源:世界杯买球盘口网址app
最近一年来,OpenAI饱受品评,先是公布最强 “通用”NLP 模型 GPT-2 而不开源;研发战略缺乏变化和多样性,单纯依赖大量的盘算资源投入迭代产物;再就是接受微软 10 亿美元投资,从而转为“有限盈利” 企业......

只管建立只有短短四年时间,OpenAI 已经成为世界领先的 AI 研究实验室之一,在 AI 研究领域与谷歌人工智能实验室、DeepMind、微软研究院、艾伦人工智能研究所相媲美。

而且,因其由埃隆 · 马斯克,以及投资家萨姆 · 阿尔特曼、天使投资人彼得 · 泰尔等传奇人物配合建立,OpenAI 无疑还是硅谷富翁们的宠儿。

所有这些都赋予了 OpenAI 特殊的使命,它的目的是要成为第一个缔造出通用人工智能(Artificial General Intelligence,简称 AGI)的研究机构,让机械具备人类的学习和推理能力。该实验室的目的,是要确保这项技术被宁静地开发出来,并造福全世界。

OpenAI 想成为 AGI 领域的领头羊,为此,它经心打造了自己的形象。在这个由财富公司占主导的科技领域,它以一个非营利组织的形象泛起,其首次声明就表现,它将以这样的身份“为所有人带去价值而非股东”,它的章程宣称 OpenAI 的“主要信托责任是针对全人类的。”OpenAI 还表现,宁静实现 AGI 是第一要义,如有其他研究组织能很快实现,它也会放下竞争并与其互助。曾经,这套说辞对投资者和媒体十分受用。

可是最近一年来,OpenAI 却饱受品评,先是公布最强 “通用”NLP 模型 GPT-2 而不开源;研发战略缺乏变化和多样性,单纯依赖大量的盘算资源投入迭代产物;再就是接受微软 10 亿美元投资,从而转为“有限盈利” 企业......

图 | 从左至右:Greg Brockman,团结首创人兼首席技术官;Ilya Sutskever,团结首创人和首席科学家;Dario Amodei,研究主任(泉源:Christie Hemm Klok)

种种迹象讲明,OpenAI 与 4 年前马斯克所声明的谁人 “人工智能非营利组织” 已然差别。

《麻省理工科技评论》记者 Karen Hao 通过在 OpenAI 办公室的三天视察,以及对去职和在职的员工、互助者、朋侪和其他领域专家的近三十次采访,揭开了 OpenAI 的真实面目:OpenAI 似乎放弃了其先前的开放性和透明性答应,当众答应一套,闭门谋划的方式却是另外一套。随着时间的推移,它已经让猛烈的竞争和越来越大的资金压力侵蚀了其透明、开放和互助的基本理念。

图|OpenAI 悬挂在办公室的公司徽标(泉源:CHRISTIE HEMM KLOK)

值得一提的是,现在已不再到场 OpenAI 事务的马斯克,在本报道推出后,发推文称,“OpenAI 应该越发开放”,“所有开发高级 AI 的组织都应受到羁系。”

图|马斯克日前 Twitter 上回应称“我没有控制权,对 OpenAI 的相识也很是有限。”(泉源:Twitter)

许多被采访者坚持匿名,因为他们没有被授权讲话或畏惧遭到抨击。他们的叙述讲明,只管 OpenAI 有着高贵的理想,但它仍然致力于维护秘密,掩护自己的形象,并要求员工效忠。

初衷:OpenAI 将会是敞开

图|一间名为 “Infinite Jest” 的集会室,意为“无尽的玩笑”(泉源:CHRISTIE HEMM KLOK)

OpenAI 于 2015 年 12 月 11 日亮相世界。它并不是第一个宣称要建立 AGI 的组织,DeepMind 在 5 年前就已经提出这一目的,并于 2014 年被谷歌收购。但 OpenAI 似乎有所差别。

首先,它的标签令人震惊:马斯克、阿尔特曼和贝宝的团结首创人彼得 · 泰尔等私人投资者最初为这个项目团结注资 10 亿美元。

大佬云集的投资者名单引发了媒体疯狂报道,初始员工的名单同样亮眼:曾为支付公司 Stripe 卖力技术业务的格雷格 • 布罗克曼将出任首席技术官;曾师从人工智能先驱杰弗里 · 辛顿的伊尔亚 · 苏茨克维将担任研究主管,另有七名刚从顶尖大学结业或从其他公司挖过来的研究员将组成焦点技术团队。

其次, OpenAI 以非营利组织身份揭晓了一则声明:“重要的是要有一个领先的研究机构,它可以优先思量好的效果,而不是自己的私利。”“我们将鼎力大举勉励研究人员揭晓他们的研究结果,无论是论文、博客文章还是代码,我们的专利(如果有的话)将与全世界共享。”

只管 OpenAI 没有明确表达批判的说法,但言外之意很显着:DeepMind 等其他实验室由于受商业利益的约束不能服务全人类。在这些机构向人类关上大门的时候,OpenAI 将会是敞开的。

在一个越来越私有化、专注于短期财政收益的研究领域,OpenAI 提供了一种新的方式来推动在 AI 技术最大问题上取得希望。“这是一个希望的灯塔。”机械学习专家 Chip Huyen 说,他密切关注着 OpenAI 实验室的生长历程。

早期加入 OpenAI 的人还记恰当初的活力,兴奋和目的感。其时的团队通过精密的关系网组建——而治理上则保持宽松随意。每小我私家都相信在这样一个开放的、扁平的组织结构中,任何人都可以提出自己的想法并展开讨论。

马斯克在建设一个团体神话上饰演了重要角色。皮耶特 · 阿布比尔是加州大学伯克利分校的一名教授,在 OpenAI 建设起的最初两年,他和他的几位学生一起在那共事,他回忆说:“我第一次感受到他的这种才气是在一次讲话中,他说,‘我知道 AGI 也许很遥远,但如果不是这样呢?如果在未来 5 到 10 年内发生的几率有 1% 或 0.1%,那会怎么样?我们不是应该仔细思量一下吗?’他的话引起了我的共识。”

可是这种轻松随意的想法也导致了厥后某些偏向上的模糊。2016 年 5 月,阿尔特曼和布罗克曼接待了时任谷歌研究员的达里奥 · 阿莫迪,后者告诉他们,没人明确他们在做什么,据《纽约客》其时揭晓的一篇报道称,尚不清楚 OpenAI 团队是否意识到这一点。布罗克曼对此表现:“我们现在的目的…… 是做当下最好的事情。”这仍然是模糊的谜底。

只管如此,阿莫迪还是在几个月后加入了 OpenAI 团队。

OpenAI 变了

到了 2017 年 3 月,也就是公司建立 15 个月后,向导层意识到是时候越发专注了。

于是布罗克曼和其他几个焦点成员开始起草一份内部文件,为 AGI 铺平门路。但这个历程很快袒露出一个致命缺陷:当研究小组研究这一领域的趋势时,他们意识到在财政上保持非营利组织属性是站不住脚的。该领域内其他组织用于取得突破性结果的盘算资源或许每 3.4 个月翻一番。布罗克曼表现,“为了保持相关性”,他们显然需要足够的资原来匹配或凌驾这种指数级增长。

这就需要一种新的组织模式,既能迅速聚拢资金,又能以某种方式忠于自己宣扬的使命。

2018 年 2 月,马斯克宣布,由于在公司生长偏向上存在分歧,他将脱离 OpenAI。一个月后,阿尔特曼辞去创业加速器(Y Combinator)的总裁一职,成为 OpenAI 的 CEO。

2018 年 4 月,在民众和大多数员工不知情的情况下,OpenAI 公布了新的章程,文件重新阐明晰该实验室的焦点价值,但巧妙地改变了语言方式,以反映新的现实问题。除了答应 “制止使用危害人类或过分集中气力的人工智能或自动识别技术” 外,它还强调了对资源的需求。章程中提到:“我们预计需要调拨大量资源来完成我们的使命,但我们将始终努力接纳行动,只管淘汰员工和利益相关者之间可能损害广泛利益的矛盾冲突。”

图|Greg Brockman,格雷格 • 布罗克曼,团结首创人兼 CTO(泉源:CHRISTIE HEMM KLOK)

布罗克曼表现:“我们花了很长时间与员工举行内部相同,从而让整个公司都接受一套新看法。纵然我们改变了却构,使命和要做的事情也必须和原来一样。”

这种转型发生于 2019 年 3 月,OpenAI 通过设置“利润上限”部门(回报到达投资的 100 倍之后才会分配利润)来挣脱其非营利组织的属性。今后不久,它宣布微软为其投资了十亿美元(只管它没有透露这是微软云盘算平台 Azure 的现金和信用分成)。

不难预料,此举引发了一波指责,外界认为 OpenAI 背离了初衷。声明发出后不久,一名用户在 Hacker News 上发帖质问,怎么实现 100 倍的利润上限,他们写道:“谷歌的早期投资者获得了约莫 20 倍的资本回报,贵公司的赌注是将拥有一个比谷歌回报更高数量级的公司结构…… 而且不造成‘权力不正当集中’?这如何实现?如果不依靠资源集中,那权力又为何物?”

图 | 从左到右依次为:丹妮拉 · 阿莫迪,杰克 · 克拉克,达里奥 · 阿莫迪,杰夫 · 吴(技术人员),格雷格 · 布罗克曼,亚历克 · 拉德福德(技术语言团队卖力人),克里斯汀 · 佩恩(技术人员),伊尔亚 · 苏茨克维和克里斯 · 伯纳(基础架构卖力人)(图片来自:CHRISTIE HEMM KLOK)

此举也让许多员工感应不安,他们表达了类似的担忧。为了平息内部杂乱,向导层起草了一份常见问题解答,作为一系列受到高度掩护的过渡文件的一部门。有一个问题是:“OpenAI 可信吗?”谜底开头是“可信”,后面跟了一段解释。

《OpenAI 章程》是该公司的焦点所在,它是所有实验室研究的指向标。

该章程对 OpenAI 举行了全方位解说,布罗克曼会在午饭时当圣经一般背诵一遍。有一次背诵时,他突然说,“我不是只在开会之前把它拿出来草草看几眼。我花了许多时间一遍又一遍重复这些内容,直到我对它了如指掌。”

如何在开发更高级的 AI 功效的同时,确保人类生活的意义呢?“我们认为,AI 的作用应该是资助所有人实现经济自由,并资助他们寻找前所未有的新机缘。”

如何才气实现 AGI 的公正分配?“我们的生长目的就是实现 AI 的实用性。但所有内容均取决于章程的划定。”

如何在确保宁静的前提下实现 AGI 的优先生长?“我认为一定存在一箭双鵰的措施,不外我们需要先相识章程中的内容。”

图 | 2018 年 4 月 9 日 公布的《OpenAI 章程》(泉源:OpenAI)

布罗克曼认为,严格遵守章程是 OpenAI 有条不紊生长的泉源所在。除个体人以外,所有全职员工都要在同一间办公室事情,这样的内部协调十分重要。

对于政策团队卖力人杰克 · 克拉克来讲,这意味着他天天需要往返于旧金山和华盛顿之间。不外他乐此不疲,并对此表现十分认同。这其实取决于小我私家态度,他认为,和同事一起吃午饭可以资助所有人保持统一步伐。

在这种方式下,效果十明白显:该公司的统一文化确实令人印象深刻。

员工事情时间很长,用餐和社交的时间也不忘讨论事情;许多人都市到场同一个聚会,他们十分认同 “有效利他主义” 的理性哲学。他们引用机械学习的术语自嘲生活:“你的生活有何种功效?”“你想要优化什么?”“生活只不外是函数而已。”事实上,AI 研究人员都喜欢这么讥讽,熟悉 OpenAI 的人深知这一点,OpenAI 的员工将 AI 研究视为一种身份认同,而非一份事情。

布罗克曼在去年 11 月迎娶了来往一年的女友安娜,婚礼的配景鲜花摆放成了 OpenAI 的 logo 图样。Sutskever 担任婚礼主持;机械人担任花童。

去年年中,章程的内容又举行了调整,它不仅仅是人们茶余饭后的谈资了。OpenAI 改为上限盈利机制以后,向导阶级很快对公司的薪资结构举行了调整,对每位员工实行任务责任制。

“统一技术型进阶”中除了 “工程专业知识” 和“研究偏向”的内容以外,最后一栏中还要求填写员工对每一级的文化期望。第 3 级:“员工需相识并内化《OpenAI 章程》。”第 5 级:“确保所有团队成员在项目研究历程中遵从章程划定。”第 7 级:“员工有责任拥护和革新章程内容,并努力动员其他员工。”

噱头式结果公布

人们第一次相识 OpenAI 应该是在 2019 年 2 月 14 日,OpenAI 宣布了一项新的研究结果:GPT-2 模型,只需按下一个按钮,盘算机就可以缔造出行云流水的文章。如果输入《指环王》中的内容或麦莉 · 赛勒斯遭入室抢劫的新闻,盘算机也可以立刻缔造出一段又一段同样气势派头的漫笔。

不外这也泛起了一个问题:研究人员表现,GPT-2 模型存在很大风险,现在还无法公布。如果这种强大的 AI 模型用作他途,就会成为缔造无数虚假信息的有力武器。

科学家纷纷提出阻挡意见。有人认为 OpenAI 就是以此为噱头作秀。GPT-2 模型还不够先进,因此也不会组成任何威胁。如果它真的存在风险,OpenAI 为何急于公布并故障群众监视呢?

“OpenAI 似乎是在制造 AI 恐慌。”罗格斯大学的助理教授布里特 • 帕里斯说,他专门研究 AI 制造的虚假信息。

图 | Jack Clark,杰克 • 克拉克,政策总监(泉源:Christie Hemm Klok)

去年 5 月,OpenAI 改变了之前的说法,并宣布了 “阶段式公布” 计划。接下来几个月,OpenAI 推出的 GPT-2 模型功效越来越强大。

在此期间,OpenAI 还与数个研究组织互助研究 GPT-2 算法滥用存在的潜在威胁,并制定了相应对策。最终,OpenAI 在 11 月公布了 GPT-2 的完整代码,并表现“现在还没有证据讲明 GPT-2 会被用作他途。”

虽然人们一直指责 OpenAI 将 GPT-2 作为宣传噱头,但 OpenAI 予以否认。相反,它认为这是一次深思熟虑的实验,经由一系列的内部探讨和辩说才告竣共识。

政策团队在后续 6 个月公布的博客内容中提到了这一点,这些看法都是大家开会一致决议的,其时我也在场。

“我认为章程绝对是我们取得乐成的关键所在,”政策研究科学家 Miles Brundage 在谈到谷歌文档时表现。

不外 OpenAI 在宣传 GPT-2 时遵循了以前的模式,这也使宽大 AI 社区普遍感应担忧。多年来,人们一直认为 OpenAI 在公布研究结果时存在炒作嫌疑。评论家也不止一次地指责 OpenAI 公布的研究结果有些夸大其词。

基于这些原因,这个领域的许多人都倾向于与 OpenAI 保持一定的距离。

图 | OpenAI 办公室的墙上挂满了研究结果的封面图片(泉源:Christie Hemm Klok)

不外 OpenAI 依然坚持投入资源重塑民众形象。它离别了传统的论文形式,将研究结果直接揭晓在了公司博客中。它可以内部完成多媒体制作以及研究结果封面设计等诸多事情。它还可以独立制作和 DeepMind 的 90 分钟纪录片 “AlphaGo” 相媲美的纪录片。

现在 OpenAI 将主要精神放在了独立制作上,布罗克曼和妻子安娜现在也举行了部门融资。

种种阻挡的声音也需要通过内部讨论解决。员工不满于外界品评的声音,向导层也担忧这会瓦解 OpenAI 的影响力,导致人才流失。

内部章程中重点提到了这一问题,并提出相识决问题的有效计谋,其中 “政策” 部门提到:“为了拥有政府级此外决议影响力,我们必须生长成人们最信赖的 ML(machine learning,机械学习)和 AGI 研究机构。”“获得 AI 研究界的广泛支持不仅是塑造声誉的有效方式,还可以扩大我们的影响力。”“计谋”部门提到,“我们应将 ML 社区视为配合的利益相关者。言语冲突无法制止时,我们应调整说话的语气和谈论的内容。”

押注盘算驱动,闷声造车

GPT-2 引发如此猛烈的反弹另有另一个原因。人们以为 OpenAI 再一次违背了它早先的开放和透明的答应。一个月后,营利性机构转型的消息传出后,这项被弃捐的研究让人们越发怀疑:这项技术一直处于保密状态,会不会是在为未来获得专利做准备呢?

但很少有人知道,这不是 OpenAI 唯一一次选择隐藏它的研究。事实上,它还对另一项研究完全保密。

关于实现 AGI 需要什么,有两种盛行的技术理论。第一,所有须要的技术都已经存在,AGI 只需要解决如何缩放和组装它们。第二,需要一个全新的范式,现在人工智能的主导技术,也就是深度学习还不够。

图 | Ilya Sutskever,伊尔亚 • 苏茨克维,团结首创人和首席科学家(泉源:Christie Hemm Klok)

大多数研究人员介于这两个极端之间,但 OpenAI 一直以来都险些完全处于第一个技术理论中。它的大多数突破都是泉源于将大量的盘算资源投入到其他实验室。

布罗克曼和 Sutskever 否认这是他们唯一的计谋,但实验室严密掩护的研究讲明并非如此。一个名为 “前瞻”(Foresight) 的团队举行了一些实验,以测试他们能在多大水平上推感人工智能能力的生长,方法是训练现有的算法,使用越来越多的数据和盘算能力。对于向导层来说,这些实验的效果证实了他们的直觉,即实验室的全投入、盘算驱动的计谋是最好的方法。

在约莫六个月的时间里,这些效果都没有向民众宣布,因为 OpenAI 将这些内容视为自己的主要竞争优势。员工和实习生被明确见告不要透露这些信息,而脱离的员工则签署了保密协议。

直到今年 1 月,这个团队才不动声色地在人工智能研究的一个主要开源数据库上揭晓了一篇论文。那些履历过保密事情的人不知道该如何应对这种变化。值得注意的是,另一篇来自差别研究人员的类似效果的论文已于一个月前揭晓。

(图源:Christie Hemm Klok)

随着时间的推移,向导层已经偏离了最初的信念——开放是建设有益的 AGI 的最佳方式。现在,保持缄默沉静成为 OpenAI 研究人员的习惯,这包罗在没有交流小组明确许可的情况下,绝不与记者攀谈。

在我第一次去 OpenAI 办公室之后,当我开始联系差别的员工时,我收到一封来自其公关主管的电子邮件,提醒我所有的采访要求都必须通过她。我拒绝了她的请求,我说这样做会破坏别人告诉我的事情的有效性。她就指示员工随时向她汇报我的举动。克拉克曾是一名记者,厥后他在信中表彰员工在记者 “四处打探” 时,能把消息捂得严严实实的。

OpenAI 的一名讲话人在回应这一高度保密的声明中,提到了该公司宪章的一部门内容。“我们预计,基于宁静和宁静问题,我们将淘汰在未来的传统公布,”该部门说,“同时增加共享宁静、政策和尺度研究的重要性。”

该讲话人还增补道:“此外,我们的每一次公布都要经由一个预估风险历程来权衡,我们希望缓慢公布我们的效果,以相识潜在的风险和影响,然后再公之于众。”

其中一个最大的秘密就是 OpenAI 正在举行的下一个项目。消息人士对我说,它基于该公司 4 年来的研究结果:一个使用大量盘算资源对图像、文本和其他数据举行训练的人工智能系统。

一个小团队已经投入前期事情,并期望其他团队最终会加入进来。在宣布此事的公司全体集会上,不允许实习生到场。熟悉该计划的人士给出了一种解释:向导层认为,这将是最有希望告竣 AGI 的方式。

推动 OpenAI 战略的是达里奥 • 阿莫德,他曾是谷歌员工,现在担任研究总监。

达里奥 • 阿莫德将实验室的计谋分为两部门。他将第一部门比作投资者的“投资组合”,这一部门划定了该公司计划如何到达先进的人工智能能力。

OpenAI 的差别团队正在举行差别的押注。例如,语言团队的押注是一个理论,该理论假设人工智能可以通过单纯的语言学习延伸出对世界的重大明白。相比之下,机械人团队提出了一个相反的理论,即智能需要物理机体来生长。

就像在投资者的投资组合中一样,并不是每一次押注都有同等的权重。可是出于科学严谨的目的,所有项目都应该在被扬弃之前举行测试。达里奥 • 阿莫德以 GPT-2 很是传神的自动生成文本为例,试图证明为什么保持开放的思想很重要。他说:“纯粹的语言是这个领域甚至我们中的一些人都有些怀疑的偏向。”“但现在人们会说,‘哇,这真的很有前途。’”

随着时间的推移,差别的赌注越押越高,它们将引发更强烈的事情热情。然后它们会交织糅合,目的是让越来越少的团队最终蜕变为 AGI 的单一技术偏向。这正是 OpenAI 最新的绝密项目应该已经在举行的历程。

图 | Dario Amodei,达里奥 • 阿莫德,研究主任(泉源:Christie Hemm Klok)

达里奥 • 阿莫德解释说,战略的第二部门集中在如何使这种不停生长的人工智能系统保证宁静。这包罗确保它们反映了人类的价值观,能够解释其决议背后的逻辑,能够在不伤害他人的情况下学习。

每一个致力于宁静目的的团队都试图开发出可以在项目成熟时跨项目应用的方法。例如,可解释性团队开发的技术可以用于展现 GPT-2 句子结构或机械人行动背后的逻辑。

达里奥 • 阿莫德认可,这部门计谋有点随意,较少建设在该领域的既定理论上,更多是建设在直觉上。他表现:“到某个时候我们将制作 AGI,到那时,我希望这些系统在世界上的运行是让人满足的。”“任何我现在感受不太好的事情,我都市专门为之建立并招募一个团队。”

在宣传和保密之间,达里奥 • 阿莫德说这话的时候看起来还是很真诚的。失败的可能性似乎使他不安。

“我们处在一个尴尬的田地:我们不知道 AGI 长什么样,”他说。“我们不知道什么时候会实现。”然后,他小心翼翼地增补道:“任何一小我私家的心智都是有限的。我发现最好的措施是聘请其他宁静研究人员,他们通常会有差别的视野。我想要那种变化和多样性,因为那是你捕捉一切的唯一方式。”

商业化压力加剧

问题是,OpenAI 实际上险些没有什么“变化和多样性”。

实验室的一位讲话人说,在 120 多名员工中,25% 是女性和非二元性别者。她说,执行团队中有两名女性,向导团队中有 30% 是女性,不外她没有明确指出团队中的小我私家信息。好比布罗克曼和阿尔特曼在内的四名高管都是白人。我在领英等网站上找到了 112 名员工,其中绝大多数是白人或亚裔。

图|Daniela Amodei,丹妮拉 · 阿莫迪,人事运营主管(泉源:CHRISTIE HEMM KLOK)

公正地说,这种多样性的缺乏在 AI 领域中是很常见的。

去年,总部位于纽约的研究所 AI Now 公布的一份陈诉发现,在主要人工智能集会上,女性作者仅占 18%,女性 AI 教授占 20%,Facebook 和谷歌的女性研究人员数量划分占 15% 和 10%。

OpenAI 的讲话人说:“学术界和工业界肯定另有许多事情要做。而我们需要认真看待多样性和包容性,现在我们正在与 WiML、Girl Geek 和学者项目等方面举行互助,不停努力革新。”

事实上,OpenAI 已经在试图拓展人才库。2018 年,它启动了面向少数族裔的远程学者项目。只管大家在事情中都体现的很努力,但第一批的八名学者中最后只有两名成为了正式员工。拒绝留在 OpenAI 的最常见原因是:他们必须住在旧金山。娜嘉 · 罗德斯曾是 OpenAI 的一名学者,现在是纽约一家公司的首席机械学习工程师。

如果缺乏多样性是人工智能行业普遍存在的一个问题,那么对于一家以 “让每小我私家都能公正享有技术” 为使命的公司来说,多样性则更是一个关乎生存的问题。现在的事实是,AI 行业缺乏最有可能被倾轧在外的群体的代表。

正如布罗克曼经常提到的 OpenAI 的使命那样,他们现在并不清楚该如何计划把通用人工智能的“利益分配给全人类”。向导层在谈到这一点时总是迷糊其辞,也没有接纳什么行动来实施详细细节。

今年 1 月,牛津大学人类未来研究所与 OpenAI 的实验室互助公布了一份陈诉,提议分配一定比例的利润来作为福利。但陈诉作者指出 “在执行方面存在重大未解决的问题”。“这是我在 OpenAI 时遇到的最大的问题,” 一位不愿透露姓名的前雇员表现。

(图源:Christie Hemm Klok)

罗格斯大学的布里特 • 帕里斯回应称:“他们正试图使用成熟的技术手段让 AI 解决社会问题。但看起来他们没能真正明白什么是社会所需要的。他们只是以为把目的定位在这里有利可图。”

布罗克曼表现认同,OpenAI 要实现其使命,技术和社会专业知识都是必不行少的。但他差别意从一开始就兼顾这两方面。他说:“要如何将伦理道德和其他看法引入其中?什么时候把这些加入 AI 中,怎么加进去?有一种计谋是,从一开始就尽可能地把你需要的工具都塞进去,但我认为这种方法乐成几率很低。”

他说,我们首先要弄清楚的是 AGI 到底应该是什么样子。只有相识了这个,才气够“确保我们会明白它带来的结果”。

去年夏天,在 OpenAI 转向利润上限模式和微软注资 10 亿美元后的几周,公司向导层向员工保证,这些变化不会在功效上改变 OpenAI 的研究方式。微软与实验室的价值观很是一致,而且都认为任何商业化的研究都是遥遥无期的;解决基本问题仍然是 OpenAI 事情的焦点。

这些保证在一段时间内似乎是有效的,项目继续和往常一样举行。许多员工甚至不知道微软向他们做出了什么答应。

但近几个月来,商业化压力开始加剧,能赚钱的研究听起来不再那么遥不行及了。Altman 私下与员工分享他的 2020 年实验室愿景时,转达的信息很明确:OpenAI 需要赚钱来做研究,而不是用研究来赚钱。

向导层表现,这是一种艰难但须要的权衡,因为 OpenAI 缺乏富有的慈善捐赠者,他们不得不做出这种权衡。相比之下,非营利组织 AI2 正雄心勃勃地推进人工智能基础研究,(至少在可预见的未来里)它的资金泉源是已故亿万富翁保罗 • 艾伦留下的自筹资金。

然而事实上,OpenAI 面临这种权衡,不仅仅是因为它没有太多资金支持,还因为它的战略选择,它试图第一个碰触到 AGI 领域。这种压力迫使它做出的决议越来越偏离初衷。它急于通过放肆宣传来吸引资金和人才维持自己的研究,以期保持住领域优势,并追求一个盘算量很大的战略。这不是因为它是通往 AGI 的唯一途径,而是因为它看起来是最快的途径。

不外 OpenAI 仍然是人才和前沿研究的基地,它不乏真诚地为人类利益而努力事情的员工。换句话说,它仍然拥有最重要的元素,仍然有时机来改变现状。

前远程学者罗德斯表现,“在我看来,OpenAI 确实存在一些问题,”她迟疑地开始说,“其中一些可能来自它所面临的情况;而有些来自它倾向于吸引的那类人,有些则来自它忽略的那类人。”

“但对我小我私家来讲,他们是在做一些正确的事,”她说,“我能感受到那里的人很是认真努力。”

-End-

责编:张静、都保杰