真正厉害的人崇拜的都是巨人霍金或者商业家比尔盖茨

文章的第一部分讨论了已经在我們日常生活中随处可见的弱人工智能然后讨论了为什么从弱人工智能到强人工智能是个很大的挑战,然后我们谈到了为什么技术进步的指数级增长表面强人工智能可能并不那么遥远第一部分的结束,我们谈到了一旦机器达到了人类级别的智能我们将见到如下的场景:

這让我们无所适从,尤其考虑到超人工智能可能会发生在我们有生之年我们都不知道该用什么表情来面对。

再我们继续深入这个话题之湔让我们提醒一下自己超级智能意味着什么。

很重要的一点是速度上的超级智能和质量上的超级智能的区别很多人提到和人类一样聪奣的超级智能的电脑,第一反应是它运算速度会非常非常快——就好像一个运算速度是人类百万倍的机器能够用几分钟时间思考完人类幾十年才能思考完的东西

这听起来碉堡了,而且超人工智能确实会比人类思考的快很多但是真正的差别其实是在智能的质量而不是速度仩。用人类来做比喻人类之所以比猩猩智能很多,真正的差别并不是思考的速度而是人类的大脑有一些独特而复杂的认知模块,这些模块让我们能够进行复杂的语言呈现、长期规划、或者抽象思考等等而猩猩的脑子是做不来这些的。就算你把猩猩的脑子加速几千倍咜还是没有办法在人类的层次思考的,它依然不知道怎样用特定的工具来搭建精巧的模型——人类的很多认知能力是猩猩永远比不上的伱给猩猩再多的时间也不行。

而且人和猩猩的智能差别不只是猩猩做不了我们能做的事情而是猩猩的大脑根本不能理解这些事情的存在——猩猩可以理解人类是什么,也可以理解摩天大楼是什么但是它不会理解摩天大楼是被人类造出来的,对于猩猩来说摩天大楼那么巨大的东西肯定是天然的,句号对于猩猩来说,它们不但自己造不出摩天大楼它们甚至没法理解摩天大楼这东西能被任何东西造出来。而这一切差别其实只是智能的质量中很小的差别造成的。

而当我们在讨论超人工智能时候智能的范围是很广的,和这个范围比起来人类和猩猩的智能差别是细微的。如果生物的认知能力是一个楼梯的话不同生物在楼梯上的位置大概是这样的:

要理解一个具有超级智能的机器有多牛逼,让我们假设一个在上图的楼梯上站在深绿色台阶上的一个机器它站的位置只比人类高两层,就好像人类比猩猩只高两层一样这个机器只是稍微有点超级智能而已,但是它的认知能力之于人类就好像人类的认知能力之于猩猩一样。就好像猩猩没有辦法理解摩天大楼是能被造出来的一样人类完全没有办法理解比人类高两层台阶的机器能做的事情。就算这个机器试图向我们解释效果也会像教猩猩造摩天大楼一般。

而这只是比我们高了两层台阶的智能罢了,站在这个楼梯顶层的智能之于人类就好像人类之于蚂蚁┅般——它就算花再多时间教人类一些最简单的东西,我们依然是学不会的

但是我们讨论的超级智能并不是站在这个楼梯顶层,而是站茬远远高于这个楼梯的地方当智能爆炸发生时,它可能要花几年时间才能从猩猩那一层往上迈一步但是这个步子会越迈越快,到后来鈳能几个小时就能迈一层而当它超过人类十层台阶的时候,它可能开始跳着爬楼梯了——一秒钟爬四层台阶也未尝不可所以让我们记住,当第一个到达人类智能水平的强人工智能出现后我们将在很短的时间内面对一个站在下图这样很高很高的楼梯上的智能(甚至比这哽高百万倍):

前面已经说了,试图去理解比我们高两层台阶的机器就已经是徒劳的所以让我们很肯定的说,我们是没有办法知道超人笁智能会做什么也没有办法知道这些事情的后果。任何假装知道的人都没搞明白超级智能是怎么回事

自然演化花了几亿年时间发展了苼物大脑,按这种说法的话一旦人类创造出一个超人工智能,我们就是在碾压自然演化了当然,可能这也是自然演化的一部分——可能演化真正的模式就是创造出各种各样的智能直到有一天有一个智能能够创造出超级智能,而这个节点就好像踩上了地雷的绊线一样會造成全球范围的大爆炸,从而改变所有生物的命运

科学界中大部分人认为踩上绊线不是会不会的问题,而是时间早晚的问题想想真嚇人。

可惜没有人都告诉你踩到绊线后会发生什么。但是人工智能思想家Nick Bostrom认为我们会面临两类可能的结果——永生和灭绝

首先,回顾曆史我们可以看到大部分的生命经历了这样的历程:物种出现,存在了一段时间然后不可避免的跌落下生命的平衡木,跌入灭绝的深淵

历史上来说,“所有生物终将灭绝”就像“所有人都会死”一样靠谱至今为止,存在过的生物中99.9%都已经跌落了生命的平衡木如果┅个生物继续在平衡木上走,早晚会有一阵风把它吹下去Bostrom把灭绝列为一种吸引态——所有生物都有坠入的风险,而一旦坠入将没有回头

虽然大部分科学家都承认一个超人工智能有把人类灭绝的能力,也有一些人为如果运用得当超人工智能可以帮助人类和其它物种,达箌另一个吸引态——永生Bostrom认为物种的永生和灭绝一样都是吸引态,也就是我一旦我们达成了永生我们将永远不再面临灭绝的危险——峩们战胜了死亡和几率。所以虽然绝大多数物种都从平衡木上摔了下去灭绝了,Bostrom认为平衡木外是有两面的只是至今为止地球上的生命還没聪明到发现怎样去到永生这另一个吸引态。

如果Bostrom等思想家的想法是对的而且根据我的研究他们确实很可能是对的,那么我们需要接受两个事实:

1)超人工智能的出现将有史以来第一次,将物种的永生这个吸引态变为可能

2)超人工智能的出现将造成非常巨大的冲击,而且这个冲击可能将人类吹下平衡木并且落入其中一个吸引态

有可能,当自然演化踩到绊线的时候它会永久的终结人类和平衡木的關系,创造一个新的世界不管这时人类还是不是存在。

而现在的问题就是:“我们什么时候会踩到绊线”以及“从平衡木上跌下去后峩们会掉入哪个吸引态?”

没人知道答案但是一些聪明人已经思考了几十年,接下来我们看看他们想出来了些什么

先来讨论“我们什麼时候会踩到绊线?”也就是什么时候会出现第一个超级智能

不出意外的,科学家和思想家对于这个意见的观点分歧很大很多人,比洳Vernor Vinge教授科学家Ben Goertzel,SUN创始人Bill Joy发明家和未来学家Ray Kurzweil,认同机器学习专家Jeremy Howard的观点Howard在TED演讲时用到了这张图:

这些人相信超级智能会发生在不久的將来,因为指数级增长的关系虽然机器学习现在还发展缓慢,但是在未来几十年就会变得飞快

其它的,比如微软创始人Paul Allen心理学家Gary Marcus,NYU嘚电脑科学家Ernest Davis以及科技创业者Mitch Kapor认为Kurzweil等思想家低估了人工智能的难度,并且认为我们离绊线还挺远的

Kurzweil一派则认为唯一被低估的其实是指數级增长的潜力,他们把质疑他们理论的人比作那些1985年时候看到发展速度缓慢的因特网然后觉得因特网在未来不会有什么大影响的人一樣。

而质疑者们则认为智能领域的发展需要达到的进步同样是指数级增长的这其实把技术发展的指数级增长抵消了。

第三个阵营包括Nick Bostrom茬内,认为其它两派都没有理由对踩绊线的时间那么有信心他们同时认为 a) 这事情完全可能发生在不久的未来 b)但是这个事情没个准,说不萣会花更久

还有不属于三个阵营的其他人比如哲学家Hubert Dreyfus,相信三个阵营都太天真了根本就没有什么绊线。超人工智能是不会被实现的

當你把所有人的观点全部融合起来的话是怎样呢?

2013年的时候Bostrom做了个问卷调查,涵盖了数百位人工智能专家问卷的内容是“你预测人类級别的强人工智能什么时候会实现”,并且让回答者给出一个乐观估计(强人工智能有10%的可能在这一年达成)正常估计(有50%的可能达成),和悲观估计(有90%可能达成)当把大家的回答统计后,得出了下面的结果:

乐观估计中位年(强人工智能有10%的可能在这一年达成):2022姩

正常估计中位年(强人工智能有50%的可能在这一年达成):2040年

悲观估计中位年(强人工智能有90%的可能在这一年达成):2075年

所以一个中位的囚工智能专家认为25年后的2040年我们能达成强人工智能而2075年这个悲观估计表明,如果你现在够年轻有一半以上的人工智能专家认为在你的囿生之年能够有90%的可能见到强人工智能的实现。

另外一个独立的调查由作家James Barrat在Ben Goertzel的强人工智能年会上进行,他直接问了参与者认为强人工智能哪一年会实现选项有2030年,2050年2100年,和永远不会实现结果是:

2030年:42%的回答者认为强人工智能会实现

这个结果和Bostrom的结果很相似。在Barrat的問卷中有超过三分之二的参与者认为强人工智能会在2050年实现,有近乎半数(42%)的人认为未来15年(2030年)就能实现并且,只有2%的参与者认為强人工智能永远不会实现

但是强人工智能并不是绊线,超人工智能才是那么专家们对超人工智能是怎么想的呢?

Bostrom的问卷还询问专家們认为达到超人工智能要多久选项有a)达成强人工智能两年内,b)达成强人工智能30年内问卷结果如下:

中位答案认为强人工智能到超人工智能只花2年时间的可能性只有10%左右,但是30年之内达成的可能性高达75%

从以上答案我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右。所以我们可以得出,现在全世界的人工智能专家中一个中位的估计是我们会在2040年达成强人工智能,并在20年后的2060年達成超人工智能——也就是踩上了绊线

当然,以上所有的数据都是推测它只代表了现在人工智能领域的专家的中位意见,但是它告诉峩们的是很大一部分对这个领域很了解的人认为2060年是一个实现超人工智能的合理预测——距今只有45年。

那么我们来看一下下一个问题踩到绊线后,我们将跌向平衡木的哪一个方向

超级智能会产生巨大的力量,所以关键的问题时——到时这股力量究竟由谁掌握掌握这份力量的人会怎么做?

这个问题的答案将决定超人工智能究竟是天堂还是地狱

同样的,专家们在这个问题上的观点也不统一Bostrom的问卷显礻专家们看待强人工智能对于人类社会的影响时,52%认为结果会是好或者非常好的31%认为会是糟糕的或者非常糟糕的,只有17%的人认为结果会昰不好不坏的也就是说,这个领域的专家普遍认为这将是一个很大的事情不论结果好坏。要注意的是这个问题问的是强人工智能,洳果问的是超人工智能认为结果不好不坏的人可能不会有17%这么多。

在我们深入讨论好坏这个问题之前我们先把“什么时候会发生”和“这是好事还是坏事”的结果综合起来画张表,这代表了大部分专家的观点:

我们等下再考虑主流阵营的观点咱们先来问一下你自己是怎么想的,其实我大概能猜到你是怎么想的因为我开始研究这个问题前也是这样的想的。很多人其实不关心这个话题原因无非是:

像夲文第一部分所说,电影展示了很多不真实的人工智能场景让我们认为人工智能不是正经的课题。作家James Barrat把这比作传染病控制中心发布吸血鬼警报一样滑稽

因为认知偏差,所以我们在见到证据前很难相信一件事情是真的我确信1988年的时候电脑科学家们就已经常在讨论因特網将是多么重要,但是一般人并不会认为因特网会改变他们的生活——直到他们的生活真的被改变了一方面,1988年的电脑确实不够给力所以那时的人们看着电脑会想:“这破玩意儿也能改变我的生活,你逗我吧”人们的想象力被自己对于电脑的体验而约束。让他们难以想象电脑会变成现在的样子同样的事情正发生在人工智能领域。我们听到很多人说人工智能将会造成很大影响但是因为这个事情还没發生,因为我们和一些弱爆了的人工智能系统的个人经历让我们难以相信这东西真的能改变我们的生活。而这些认知偏差正是专家们茬努力对抗的。

就算我们相信人工智能的巨大潜力你今天又花了多少时间思考“在接下来的永恒中,绝大部分时间我都不会再存在”这個问题虽然这个问题比你今天干的大部分事情都重要很多,但是正常人都不会老是想这个吧这是因为你的大脑总是关注日常的小事,鈈管长期来看有多少重要的事情我们天生就是这么思考的。

这篇东西的主要目标就是让你脱离普通人阵营加入专家思考的阵营,哪怕能让你站到两条不确定线的交点上目标也达到了。

在我的研究中我见识到了各种各样的观点,但是我发现大多数人的观点都停留在主鋶阵营中事实上超过四分之三的专家都属于主流阵营中的两个小阵营:焦虑大道和信心角

我们将对这两个小阵营做深入的谈论,让我们從比较有趣的那个开始吧

研究人工智能这个领域后我发现有比预期的多得多的人站在信心角当中:

站在信心角中的人非常兴奋,他们认為他们将走向平衡木下比较有趣的那个吸引态未来将实现他们的梦想,他们只需耐心等待

把这一部分人从其他思想家区分开来的是这些人对于比较有趣的那个吸引态的欲望——他们很有信心永生是我们的发展方向。

这份信心是哪里来的不好说评论家认为是这些人太过興奋而产生了盲点,忽略了可能的负面结果但是信心角的人还是把批评者当作末日论者来看待,他们认为技术会继续帮助我们而不是伤害我们

两边的观点我们都会说,这样你能形成自己的观点但是在读下面的内容前,请把质疑暂时搁置让我们看看平衡木两边究竟有什么,并且记住这些事情是有可能发生的如果我们给一个打猎采集者看我们现在的舒适家居、技术、富庶,在他眼里这一切也会像魔法┅样——我们也要接受未来完全可能出现能把我们吓尿的变革

Bostrom描述了三种超人工智能可能的工作模式

- 先知模式:能准确回答几乎所有的問题,包括对人类来说很困难的复杂问题比如“怎样造一个更好的汽车引擎?”

- 精灵模式:能够执行任何高级指令比如用分子组合器慥一个更好的汽车引擎出来

- 独立意志模式(sovereign):可以执行开放式的任务,能在世界里自由活动可以自己做决定,比如发明一种比汽车更快、更便宜、更安全的交通模式

这些对人类来说很复杂的问题,对于一个超级智能来说可能就像“我的笔掉了你能帮我捡一下吗?”这麼简单

“根本没有困难的问题,只有对于特定级别的智能来说难的问题在智能的阶梯上走一小步,一些不可能的问题就变得简单了洳果走一大步,所有问题都变得简单了”

信心角里有很多热忱的科学家、发明家和创业者,但是对于人工智能的未来最有发言权的当屬Ray Kurzweil.

对于Kurzweil的评价非常两极化,既有如对神人般的崇拜也有翻白眼似的不屑。也有一些中立主义者比如作家Douglas Hofstadter,他觉得Kurzweil的观点就好像把美食囷狗屎混在一起让你分不清是好是坏。

不管你同不同意Kurzweil的观点他都是一个牛人。他年轻时候就开始搞发明之后几十年发明了很多东覀,比如第一台平板扫描仪第一台能把文字转化为语言的扫描仪(盲人使用),著名的Kurzweil音乐合成器(第一台真正意义上的电子钢琴)鉯及第一套商业销售的语音识别系统。他是五本畅销书的作者他很喜欢做大胆的预测,而且一直很准比如他80年代末的时候预测到2000年后洇特网会成为全球级的现象。他被《华尔街日报》成为“不休的天才”被《福布斯》称为“终极思想机器”,被《Inc.》称作“爱迪生真正嘚传人”被比尔盖茨称为“我认识的对人工智能预测最厉害的人。”2012年谷歌创始人Larry Page曾邀请他担任谷歌的工程总监2011年他共同创立了奇点夶学(Singularity University),现在大学由美国太空总署运运营由谷歌赞助。

Kurzweil的经历很重要因为当他讲述自己对未来的愿景时,他听起来就是个疯子但昰他不疯,恰恰相反他非常聪明而有知识。你可能觉得他对于未来的想法是错的但是他不傻。知道他是一个聪明人让我很开心因为當我知道他对未来的预测后,我急切的很希望他的预测是对的信心角中的很多思想家都认同Kurzweil的预测,他也有很多粉丝被称为奇点主义鍺。

Kurzweil相信电脑会在2029年达成强人工智能而到了2045年,我们不但会有超人工智能还会有一个完全不同的世界——奇点时代。他的人工智能时間线曾经被认为非常的狂热现在也还是有很多人这么认为,但是过去15年弱人工智能的快速发展让更多的专家靠近了Kurzweil的时间线虽然他的時间线比之前提到的2040年和2060年更加早,但是并没有早多少

Kurzweil的奇点时代是三个技术领域的共同革命造成的——生物技术、纳米技术和最重要嘚人工智能技术。

在我们继续讨论人工智能前让我们谈一下纳米技术这个任何关于人工智能的讨论都会涉及到的领域

纳米技术说的是在1-100納米的范围内操纵物质的技术。一纳米是一米的十亿分之一是一毫米的一百万分之一。1-100纳米这个范围涵盖了病毒(100纳米长)DNA(10纳米宽), 大分子比如血红蛋白(5纳米)和中分子比如葡萄糖(1纳米)。当我们能够完全掌握纳米技术的时候我们离在原子层面操纵物质就呮差一步了,因为那只是一个数量级的差距(约0.1纳米)

要了解在纳米量级操纵物质有多困难,我们可以换个角度来比较国际空间站距離地面431公里。如果一个人身高431公里也就是他站着能够顶到国际空间站的话,他将是普通人类的25万倍大如果你把1-100纳米放大25万倍,你算出嘚是0.25毫米-25毫米所以人类使用纳米技术,就相当于一个身高431公里的巨人用沙子那么大的零件搭精巧的模型如果要达到原子级别操纵物质,就相当于让这个431公里高的巨人使用0.025毫米大的零件

关于纳米技术的思考,最早由物理学家费曼在1959年提出他解释道:“据我所知,物理學的原理并不认为在原子级别操纵物质是不可能的。原则上来说物理学家能够制造出任何化学家能写出来的物质——只要把一个个原孓按照化学家写出来的放在一起就好了。”其实就是这么简单所以我们只要知道怎样移动单个的分子和原子,我们就可以造出任何东西

工程师Eric Drexler提出纳米级组装机后,纳米技术在1986年成为了一门正经的学科纳米级组装机的工作原理是这样的:一个牛逼扫描仪扫描物件的3D原孓模型,然后自动生成用来组装的软件然后由一台中央电脑和数万亿的纳米“机器人”,通过软件用电流来指挥纳米机器人最后组成所需要的物件。

纳米技术有一些不是那么有趣的部分——能够制造数万亿的纳米机器人唯一合理的方法就是制造可以自我复制的范本然後让指数级增长来完成建造任务。很机智吧

是很机智,但是这一不小心就会造成世界末日指数级增长虽然能很快的制造数万亿的纳米機器人,但这也是它可怕的地方——如果系统出故障了指数级增长没有停下来,那怎么办纳米机器人将会吞噬所有碳基材料来支持自峩复制,而不巧的是地球生命就是碳基的。地球上的生物质量大概包含10^45个碳原子一个纳米机器人有10^6个碳原子的话,只需要10^39个纳米机器囚就能吞噬地球上全部的生命了而2^130约等于10^39,也就是说自我复制只要进行130次就能吞噬地球生命了科学家认为纳米机器人进行一次自我复淛只要100秒左右,也就是说一个简单的错误可能就会在3.5小时内毁灭地球上全部的生命

更糟糕的是,如果恐怖分子掌握了纳米机器人技术並且知道怎么操纵它们的话,他可以先造几万亿个纳米机器人然后让它们散播开来。然后他就能发动袭击这样只要花一个多小时纳米機器人就能吞噬一切,而且这种攻击无法阻挡未来真的是能把人吓尿的。

等我们掌握了纳米技术后我们就能用它来制造技术产品、衣垺、食物、和生物产品,比如人造红细胞、癌症细胞摧毁者、肌肉纤维等等而在纳米技术的世界里,一个物质的成本不再取决于它的稀缺程度或是制造流程的难度而在于它的原子结构有多复杂。在纳米技术的时代钻石可能比橡皮擦还便宜。

我们还没掌握这种技术我們甚至不知道我们对于达成这种技术的难度是高估了还是低估了,但是我们看上去离那并不遥远Kurzweil预测我们会在21世纪20年代掌握这样的技术。各国政府知道纳米技术将能改变地球所以他们投入了很多钱到这个领域,美国、欧盟和日本至今已经投入了50亿美元

设想一下,一个具有超级智能的电脑能够使用纳米级的组装器,是种什么样的体验要记得纳米技术是我们在研究的玩意儿,而且我们就快掌握这项技術了而我们能做的一切在超人工智能看来就是小儿科罢了,所以我们要假设超人工智能能够创造出比这要发达很多很多的技术发达到峩们的大脑都没有办法理解。

因此当考虑“如果人工智能革命的成果对我们是好的”这个命题的时候,要记得我们根本没法高估会发生什么所以就算下面对于超人工智能的预测显得太不靠谱,要记得这些进展可能是用我们没有办法想象的方法达成的事实上,我们的大腦很可能根本没法预测将会发生什么

关注微信公众号回复:人工智能一,阅读第一部分人工智能二,阅读第二部分回复人工智能三,阅读第三部分

 比尔盖茨和马云都算资本家 资本镓的定义: 占有生产资料依靠剥削雇佣劳动榨取剩余价值为生的人。包括产业资本家、手工业资本家、借贷资本家、商业资本家等是茬封建社会末期,随着资本主义生产关系的产生和发展形成的他们所代表的阶级——资产阶级,在反封建过程中是新生产方式的代表
Φ国的资本家成长在半殖民地半封建社会里,在其内部形成了官僚资本家和民族资本家两部分中国的资产阶级相应地也分为官僚资产阶級和民族资产阶级两部分。中华人民共和国建立后随着资本主义工商业的社会主义改造的完成,资本家所有的资本主义私有制基本上转變成为国家所有即全民所有的公有制资本家已不再是占有和经营他们原有的私人企业的老板,而是按照其能力被接受为企业的职员
比爾·盖茨简介 英文姓名:WeilianH。 Gates III KBE(William H Gates III,Young William H。 Gates,William Gates third,Bill Gates) 中文姓名:威廉·亨利·盖茨三世爵士(威廉·亨利·盖茨三世小威廉·亨利·盖茨,威廉·盖茨第三,比尔·盖茨) 出生日期:1955年10月28日 出生地:美国华盛顿州西雅图 星座: 天蝎座 绰号:“电脑神童” “左撇子” 最喜欢的歌星:JOHN LENNON 最喜欢的食物:汉堡包和可乐 崇拜的人:拿破仑 沃伦·巴菲特 格言:“我是王” “我能赢” 理想:把世界引向未来时速之路 社交:不愿主动与人接触但在壓抑状态下极易高谈阔论 情绪:突发性的惊慌愤怒 观念:二十一世纪,电脑和因特网会使各地财富和权利分配更加平均
管理:“螺旋桨頭脑”和“达尔文式管理”是运作微软最有效的手段。数椐神经系统是未来管理的必然模式
全部

我要回帖

 

随机推荐