投递人 itwriter 发布于 2017-12-07 16:52 原文链接 [收藏] « »

  编者按:谷歌 AI 研究员、Keras 创建者 Francois Chollet 的一篇有关人工智能发展的文章引起了热议。简单来说,他认为可能导致奇点产生的智能爆炸是不可能不发生的。因为智能的发展要受到很多环境因素的制约,使得其发展趋势只能接近于线性的速度,并且用跟智能最接近的科学的发展轨迹作为佐证。这篇文章以文明作为智能载体等立论观点十分新颖,给人留下了深刻印象。

  但是也有人提出了不同的意见,比方说 Uber 软件工程师 Florent Crivello 就是其中的一位。他反对的理由主要是:

  1)我们的发展已经呈指数性;

  2)推动历史向前的是个人;

  3)大脑是智能发展的瓶颈;

  4)AI 的扩张方式是人没法做到的。

  按照这样推断,AI 的爆炸是有可能发生的。你以为如何呢?

Uber 软件工程师:个人推动历史,AI 奇点必定到来

  François Chollet 写了一篇《智能不会爆炸》。以下是那篇文章的摘要,不过我鼓励你真的应该全文通读一遍:

  • 智能是情景化的——并不存在一般智能这样的东西。你的大脑是一个更大的系统的一部分,这个系统包括了你的躯体、环境、其他人以及整个文化。

  • 没有系统可以存在于真空之中;任何个体智能总要被其存在的上下文、被环境所定义和约束。目前制约我们智能的瓶颈是我们的环境而不是大脑。

  • 人类智能基本上是外化的,主要不是包含在我们的大脑而是在我们的文明当中。我们是我们的工具——我们的大脑是比我们本身大得多的认知系统的模块。这个系统已经在自我改进,而且已经进行了很长的时间。

  • 递归自我改进系统,因为所存在的更大范畴的上下文可能会出现瓶颈、收益递减、以及逆反作用,实际上无法取得指数性的发展。从经验来看,这种发展往往呈线性或者S曲线式的改进。科学进步尤其是这样——而科学也许是跟我们观察的递归自我改进系统最接近的一个了。

  • 递归智能拓展已经在发生——不过是在我们的文明这个层面上进行的。这个进程会在 AI 时代继续,而且是以大致线性的节奏进行的。

  我认为那篇文章有好几个观点都非常出色——我很喜欢“文明作为外部脑皮层”的想法——但是其中的一些观点我有不同看法,或者认为那些情况仍然允许未来智能爆炸的可能性存在。以下是我的看法。

  1、我们的发展已经呈指数式

  François Chollet 写道:

这种情况下你也许会问,难道文明本身不是自我改进大脑的逃逸手段吗?我们的文明难道没有出现智能爆发吗?没有,关键是文明级的智能改进循环仅仅导致了我们的问题解决能力的,可测量的、线性的进展。并没有出现爆发的现象。

  这个我不同意,我认为我们的发展已经呈现出指数性了,在很多指标上都是。

  下面这张图反映的是全球的历史人口发展情况(尽管有人会说这个很快就会变成S曲线,因为全球的婴儿潮高峰期已过):

Uber 软件工程师:个人推动历史,AI 奇点必定到来

  下面这张是全球人均 GDP 的历史沿革,按 1990 年代美元汇率换算:

Uber 软件工程师:个人推动历史,AI 奇点必定到来

  记住,这可是人均值,所以这条曲线代表的是生产力本身的增长情况而不是人口的发展情况。而且这个时间跨度是很小的!相对于超过 1 万年的人类文明史,500 年的时间并不算长。

  而这仅仅局限在人类身上,而人类在宇宙的宏伟计划中还是一个非常新的现象。你可能已经听说过 Carl Sagan 的“宇宙历”,它把宇宙的年表从 138 亿年压缩到了一年。在这条时间线上,生命直到 9 月 21 号才出现,而 12 月 5 号才出现多细胞生物,到了 12 月 31 日晚上 11:52 之前才有了解剖学意义上的现代人。被许多历史学家认为是人类文明开始的农业,直到晚上 11 点 59 分 32 秒才开始。

  在《量化宏观史(quantitative macrohistory)》中,Luke Muehlhauser 写道:

我对有记录的人类史的一句话概括就是:很长一段时间内的一切都非常糟糕,然后就发生了工业革命。

  在“宇宙历”中,工业革命直到午夜降临的 570 毫秒之后才开始。

  所以,当然了,如果你是从个人的时间尺度上来看待这一切的话,事情的发展速度似乎非常缓慢。但是,请记住:我们看到有任何的发展都是奇迹!如果一个人可以穿越并且能够表现正常的话,你会看到在人类的大部分历史当中上下 100 年间几乎都没有什么差别(除了那些朋克系头发用的是 2 根而不是 3 根骨头)。

  总结一下:在宇宙这个宏大的时间尺度上,在很长一段时间内都没有发生任何事情,然后突然之间,生命形成了。从这一点开始按照宇宙的尺度就已经很难区分事件了,所以我们需要把这细小的时间条放大。放大后我们可以再次可以看到并没有太多的事情发生,然后突然之间,包括猿猴在内的哺乳动物出现了。进一步放大,还是没有太多的事情发生,然后人类文明出现了!再放大,事情也还不多,然后就冒出了工业革命!

  知道我想说什么了吧:我不仅认为会出现奇点,而且认为我们已经生活在奇点里面了。

  如果有那么一个计算的奇点的话,那么对我们而言的几千年时间对于那些机器而言就好像是几个纳秒而已,那么它们不仅会把我们的人类史,甚至我们的现代史都总结为“没什么事情发生,然后种子 AI 出现了”。我们的“你能想象地球在形成任何生命前居然活了六亿年吗?”将会是他们的“你能想象他们曾经每天睡 8 个小时吗?”,8 小时对他们来说就已经是漫长得不可估量的,就好像有 6 亿年对我们而言是地老天荒一样。

  (我意识到自己已经把我们完全陌生的实体过于人格化了,但这是有趣的做法,你明白我的意思就行了。)

  2、推动历史向前的是个人

  Chollet 写道(粗体是我的强调):

个人本身并没有太多的用处——再强调一次,人不过是用双脚走路的猿罢了。是几千年以来不断积累的知识和外部系统,也就是所谓的“文明”,让我们超越了动物性。当科学家取得突破时,其大脑进行的思考过程只不过是方程式的一小部分罢了——研究人员把大量的问题解决过程都交给了计算机、其他研究人员、论文笔记、以及数学符号等。他们之所以能够取得成功,是因为他们站在了巨人的肩膀上。他们自己的工作不过是成千上万人在几十年的时间跨度内进行的问题解决过程的最后一个子程序罢了。他们自己的认知工作的重要性可能并不比芯片上的一个晶体管的工作大多少。

  我对“站在巨人的肩膀上”的观点不是很认同,尤其是在被用来淡化个人的重要性的时候。从某种程度上来说这是对的:我们利用了之前文明所取得的进展,从而可以继续推动文明的进步。

  但是,我们大家都是站在巨人的肩膀上,为什么我们当中却没有几个人取得了任何值得注意的成就呢?难道这只是跟运气和环境有关,或者正好“在合适的时间处在了合适的地点”吗?

  我认为环境固然重要,但却不是主要因素。再次地,当科学家取得其中一些最伟大的发现时,很多人无疑也是处在合适的环境下的,而且往往比最终取得突破的研究人员所处的环境还要好得多。爱因斯坦就是典型例子:呆在瑞士专利局的一个小职员怎么会是那个发现狭义相对论的人呢?要知道当时拿到终身任期、有更多的时间来思考这个问题,能获得更多的内容、可以接触更多的智囊进行交流,有时候还可以支配整个团队和实验室的人多了开去了,为什么是他发现了相对论呢?

  牛顿也有着著名的“奇迹之年”,当他发现引力定理并且发明了微积分时,为了避免鼠疫肆虐,他还被困在父母所在的乡下呢。

  如果说有什么区别的话,似乎有时候取得任何影响的唯一办法是知道什么时候不去站在巨人的肩膀上,然后开始做你自己的事情,就像那两个例子的研究人员所做的是一样。毕竟,这些肩膀不知道顶在哪里:你可以把你的整整一生都奉献给一个领域,却连那些已经做出的发现都不能研究完。用 Richard Hamming 的话说:

贝尔实验室有个家伙非常非常的聪明。他总是呆在实验室里,他博览群书阅读一切。但在形成这些理论时,我得出了一个看法:从长期看不会有什么效应会以他的名字命名。他后来当上了副教授,现在他已经从贝尔实验室退休,。他非常有价值,这一点我不会质疑。他写出了一些非常好的物理评论文章;但不会有以他名字命名的效应,因为他读得太多了。

  我同意之前的文明所完成的工作是很重要,但个人的重要性似乎被大多数人低估了。只需要有一个人往前比别人多迈出一步,就能够为所有人把边界往外多推进一层。从这个意义上来说,文明的进步速度其实跟它的最快成员是一样的。我们只需要一个哥伦布就能发现一个全新的大陆,只需要一个爱因斯坦就能获得必要的洞察去发明激光与核能,只需要一个达尔文就能对生活产生全新的感悟。

  (顺便说一下,这种要想产生任何影响力所需的“对行动的偏爱”,似乎是美国人的最大优势之一。毫无目的地在知识的大海中遨游很容易就会迷失自我,在光假想“如果….会怎么样”和“我们可能错过了……”而不行动中被冻结住。而有着“先开枪后提问”这种气质的美国人,似乎对在别人完全理解之前先动手做十分欣赏。)

  3、大脑是瓶颈

  François Chollet 继续说:

但是问题解决目前的瓶颈是表现出来的智能,而不是潜在的认知能力本身。瓶颈是我们的环境。决定了我们的智能表现如何的环境,对我们的大脑能够做什么施加了严格的约束——它限制着我们长大有聪明,限制着我们能够如何有效地利用我们形成的智能,限制着我们能解决什么问题。所有的证据都表明,我们现在的环境,就像此前 20 万年前的人类历史和史前史一样,并不允许高智商的人充分发挥和利用他们的认知潜能。一万年前的一个潜力巨大的人可能是在一个低复杂度的环境中被抚养成人的,他可能只会说一门语言,其单词量不超过 5000,一辈子可能都没人教他书写,能接触的知识非常有限,几乎不会遇到什么认知挑战。对于大多数现代人来说目前情况要好一些,但是没有迹象表明我们的环境机会目前超过了我们的认知潜能。

  这一点我同意,但对前沿的说法不敢苟同。如果你把智能泛泛地定义为实体控制环境的能力的话,总体而言,一个人的智能是体现在大脑以外的:一个人控制环境的能力 99% 取决于他们拿到的那张“你出生在哪个世纪?”的彩票,只有不到1% 是由他们的之上决定。

  但文明首先是由个体建设和塑造的,就像反过来这些个体也为文明所塑造一样。说到推进前沿,以及重新定义下一个世纪对于生活在那个世纪的几代人意味着什么,瓶颈是这些个体。在此,我想附和一下 Peter Thiel 对技术决定论的摒弃,按照他的说法,“无论如何,进步总会发生”。我想,不管怎样,无论当前的文化发展势头如何,世界的命运仍然掌握在一个个人手上,仍然取决于他们做出的行动和决策。

  从更具体更“微观”的角度看,你可以问问创业者目前制约其公司发展的瓶颈是什么。有人会说是市场采用,或者资金,这证明 Chollet 强调环境因素是对的。但在 AI 领域,几乎所有人都会说是缺头脑:人才根本不够用,很多文章都说只要找到稍微合适的人才成堆的钱就找上门来了,7 位数的报酬是常态。

  就像查理点芒格所说那样:

我喜欢人工智能,因为我们太缺少真东西了。

  4、AI 的扩张方式是人没法做到的

  还是 Chollet 的文章:

大量证据表明,个人大脑本身无法设计出超越自身的更强智能。这个说法纯粹是出于经验主义:在出现又消失的几十亿人脑当中,并没有哪一个做到过。显然,一个人的智能一辈子也无法设计出智能,否则的话,经过数十亿次的试验之后这件事早就应该可以了。

  但是当然了,一切事情都从来没有发生过,直到它第一次发生。你一样也可以说“这是一项经验观察,没人能在 10 秒内跑完 100 米,因为之前从来都没有人做到过”,直到博尔特出现。

  Chollet 继续说:

在经过几个世纪的共同发展后,未来的超人 AI 是否有能力发展出比自己更强的 AI 来呢?不能,我们当中没有一个人可以。

  但一旦我们得到了那个种子 AI,没人说只造一个啊。人工智能的特点在于,它跟相对应的自然人不一样,它是可以扩充的,不仅水平可扩而且垂直可扩。AlphaGo 赢下围棋世界冠军李世石时,很多人迅速指出:

分布式的 AlphaGo 系统用了大约 1 兆瓦特的能量,相比之下人脑的消耗只有 20 瓦。

  按照那些观察者的说法,这使得这种比较不公平起来了。然而,就像 Benedict Evans 所说那样,“不公平比较是最重要的一种比较。”游戏不在乎你的能效有多高:要么胜,要么败。如果非要讨论的话,这似乎还为 AlphaGo 争取到更多的点数:在 AI 方面,一旦我们找到某样有效的东西之后,我们就可以投入一堆的芯片和能源,然后看着它变得越来越好。经常有人指出今天的这股 AI 复兴,比方说梯度下降、卷积神经网络或者深度学习等,其实早就已经有了,只是在计算能力足够强之后才开始变得高效起来。

  或者我们换个角度来看,你觉得总共消耗 1 兆瓦的 5 万个人加起来跟一个 AlphaGo 下棋的结果会怎样?我能想到的跟这种设想最接近的是 Twitch 玩 Pokemon 的实验,120 万玩家用了 394 小时才完成了一个小孩只用 25 小时就能完成的游戏。

  (郑重声明:我并不认为出现奇点所需要的就只有更多的计算能力而已。我们也许需要大量更多的理论突破才能实现。我想说的是这个:一旦我们去的那些突破,并且造出“种子 AI”,我们就能扳动开关,再造出 100 万台这样的 AI,而你找到了一位真正聪明的人之后是没有办法这样操作的。)

  概括一下:

  • 从足够大的时间尺度上审视历史的话,显然宇宙的复杂性已经呈指数性爆炸——从亚原子粒子,到原子,再到份子,乃至于生命、有机体以及文明。智能爆炸也会跟这一现象保持一致。

  • 推动文明进步的是个人,尽管个人也利用之前文明所取得的进步。文明往往跟它速度最快的成员发展得一样快,因为这些个人中只需要一个人取得突破就能为所有人开拓。

  • 因此,头脑的数量,尤其是质量是妨碍进步的瓶颈……

  • ……而第一个超越人类智能的 AI 将会清除这些瓶颈,引发智能的爆炸。

24小时阅读排行

    最新新闻

      相关新闻

        回到页首