爱爱小说网 > 体育电子书 > 智能简史 >

第2章

智能简史-第2章

小说: 智能简史 字数: 每页3500字

按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!



意识也是必要的,并且认为需要新的物理知识来理解自然中意识如何产生,并借此来创造
机器人工意识。

  我并不介意这些反对的声音,又或许这样的批评是对的。但即使这样,他们的反对也无法改变我的基本论题,因为这也许只是延迟几十年,直到意识的本质被更好地理解。我认为,要理解自然是怎样创造我们的,只是一个时间问题。也就是说,我预计科学会逐渐理解“胚胎发育”的过程,这是从一个受精卵细胞到包含万亿个细胞的胚胎然后形成一个婴儿的过程。

  我们自己,既有智慧又有意识,就是一个存在的证据,即证明自然界可以以一种适合的方式排列大分子来制造我们。当一个孕妇进食后,她所摄取食物里面的一些大分子会被重新组合,然后自己去组合包含万亿万亿个原子的大分子结构,就是她的婴儿。婴儿就是由于大分子的自我排列组合而形成的一个有效的三维的并且有意识和智慧的生物。

  自然界通过进化已经找到了一种解决这一问题的方法,所以这个问题是可以解决的。如果科学家想制造有智慧有意识的机器,一个显而易见的办法就是通过尽可能地复制自然界创造意识的途径来实现。或迟或早,科学会产生一种和人类一样运作的人工生命形式。

  同样,如果科学对于生物大脑的工作原理有更深入的了解,那么制造人工大脑将变得更加容易。尽管过去一个世纪甚至在更长时间里,神经科学家们投入了大量的精力来试图理解人类大脑工作的基本原理。但不幸的是,当代神经科学对于人类大脑工作原理的了解仍然十分有限。迄今为止,在神经元微电路层次上,对于神经电路怎样高度联系以实现大脑工作方面的了解还是很少。科学家们依然缺少用于仔细研究大脑结构的工具。

  然而,随着科技进步人们可以制造越来越小的设备——从微米级达到纳米级。比如说,当设备从百万分之一米(细菌的大小)变得只有十亿分之一米(分子的大小)的时候,制造分子级机器人来探索大脑如何工作将成为可能。

  关于生物大脑工作原理的科学知识到现在之所以还非常有限,正是由于我们现在使用的工具非常有限。但是,随着分子级工具(称作纳米科技)的出现,神经学家将会有一套强有力的崭新工具用来探索生物大脑,该领域的研究也会取得很快的进展。

  像我这样的人工大脑制作者将会利用这些新创建的神经科学原理,迅速地把它们应用到人工大脑结构上。

  可能不久人们便会破解很多生物大脑的工作原理,从而将会产生一种能够在神经元电路基础上解释的—— 如为什么爱因斯坦的大脑会比绝大多数人聪明很多的“智能理论”。这样的智能理论一旦存在,对于像我这样的神经工程师来说,就可以用一种更工程化的方法来制造大脑。我们将不必去做“神经科学的奴隶”。我们可以使用一种替代方式来制造人工智能机器(虽然一开始是基于神经科学原理的)。

  当拥有了纳米科技工具提供的崭新的神经科学知识,量子计算以及一个原子存储一个比特所允许的惊人的计算能力,像我这样的人工大脑制造者才可能具备制造真正有意识的人工智能机器所需的所有要素。

  现在有很多问题被提出,我将在本书大部分章节里试着解答它们。让我们把目光投向未来,想象一下上述的科技将怎样影响我们普通人的生活。

  很快,购买人工大脑控制
机器人来做家务将变为现实。如果这些机器人的价格变得可以承受,那么对于它们的需求将变得非常巨大。我相信,不久,世界经济将依靠这些基于人工大脑的计算机。这样的设备将变得非常有用和流行,以至于地球上的每一个人都想拥有。随着科技和经济的进步,这种设备在全球市场将会快速增长以至于地球上的大多数政治家都会支持它。不仅商务公司会热衷于制造更聪明更有用的机器人和基于人工大脑的各种设备,就连各国军事领域也将广泛采用这种技术。

  在未来几十年,地球将真正形成一个全球性国家,但有全球性的警察维护全球性的法律这种可能性是很小的。相反,我认为在下半个世纪为成为世界上最强大国家而产生的政治对立将白热化。这样就会使处于敌对状态的国家不允许对方研发出更聪明的机器士兵和其他基于人工大脑的国防系统。因此,国家政府将会加强为军方服务的人工大脑研究的发展,这将不限于商务应用,就像一个世纪以来其他技术的发展模式一样。

  所以,人工大脑的机器人和相应领域的崛起,看起来是不可阻挡的。要阻挡商业及军方的推动力是很难想象的,除非某种大规模的政治运动才可以阻止它。

  如何才能引发这样的运动?

  试想几十年以后,几百万人都买了家务机器人、性机器人、教学机器人、育儿机器人、伴侣机器人、友谊机器人,等等,并且这些人工大脑控制机器人可以很好地理解人类语言并与人类交谈。一些年之后会发生什么呢?毫无疑问,早年那些型号的机器人会因为是老式的而变得没有吸引力。新型号机器人因为有更高质量的语言能力而被认为是更“智能的”。它们会更好地理解并与人类沟通。它们的行动指令会更丰富。一句话,它们会很快替代早期型号的机器人。

  那么大家会怎样呢?当然,他们会丢弃老式机器人去买新型的,或者把他们的老式机器人进行人工神经元电路升级。之后,这样的过程将反复出现,就像20世纪80年代至90年代人们购买个人电脑那样。

  然而,有些爱思考的购买者会发现一代一代的家用机器和机器人变得越来越聪明,并且机器人和人类智商的差异越来越小。当机器人真的变得非常聪明后,几百万的机器人拥有者会开始问自己一些有趣的问题。诸如:

  “这些人工大脑机器人会变得多聪明呢?”

  “它们会变得和人类一样聪明吗?”

  “如果可能,那是一件好事吗?”

  “这些
机器人会变得足够聪明而成为人类的威胁吗?”

  “这些机器人会比人类聪明吗?”

  “如果能够,会聪明多少呢?”

  “人类应不应该允许这些机器人比人类聪明呢?”

  “当它们变得比人类聪明时,它们会认为人类是地球上的瘟疫或癌症而把人类灭绝吗?”

  “人类应该为这些可能发生的事情冒险吗?”

  “机器人人工智商需要设置一个限制吗,使机器人足够聪明从而有利于人类但不至于成为人类的威胁?”

  “政治上、军事上、经济上有阻碍机器人逐年变得更聪明的可能性吗?”

  “有很多人认为,制造超智能机器是人类的使命。这些人不喜欢对人工智商设置任何限制。这会在人类间产生冲突吗?”

  随着人工智能机器的出现以及制造更强能力的人工大脑,会出现更多诸如此类的问题。

  我又是怎样看待人类应对人工智能机器的出现所面临的挑战呢?我将会陈述我认为最有可能发生的状况。在这之前,先给大家介绍一个本书中经常用到的新术语,它是表达“神一样超级智能机器”的缩写。这个新术语是“artilect”(人工智能机器),它是“artificial intellect”的缩写,是本书中最重要的概念和术语。

  我相信,人工智能机器在21世纪将成为主导问题——具体指人类是否应该制造比人类智能高出万亿个万亿倍的人工智能机器,也就是说,拥有神一样智慧的机器。我预言人类将分裂成两大主要政治集团,并且会随着人工智能机器逐渐变为现实而使得他们之间的斗争更加激烈。

  支持制造人工智能机器的集团,我称之为“宇宙主义者”(Cosmist),是基于“cosmos”(宇宙)一词。对于宇宙主义者,制造人工智能机器就像宗教中人类的使命;是真正伟大和值得崇拜的;是值得人们用尽一生的精力来实现的。对于宇宙主义者,不去制造人工智能机器,不去创造更高的进化形式,而停留在人类这样微不足道的形式上,是“宇宙大悲剧”。宇宙主义者会强烈反对任何试图阻碍21世纪人工智能机器产生的行为。

  强烈反对制造人工智能机器的集团,我称之为“地球主义者”(Terran),是基于“terra”(地球)一词,反映了他们内在的非宇宙主义的看法。我坚信,地球主义者会争论说,允许制造人工智能机器(以非常高级的形式)意味着接受一个冒险—— 那就是某一天,人工智能机器会认为,无论从什么样的角度来说,人类都是一种瘟疫或有害物。而人工智能机器的智能已远远超过人类,那么对人工智能机器来说,如果它们决定把人类灭绝将是很容易的。

  但是你可能会辩论说,如果人工智能机器真的非常聪明,那么它们会认为人类赋予了它们生命,人类就是它们的父母。因此,人工智能机器会尊重我们,并且对我们很友好。这样的情况可能会发生,但问题是,你无法保证人工智能机器们会像我们期望的那样对待我们。

  不要忘记,人工智能机器可能比我们聪明万亿个万亿倍,由于它们是如此的聪明以至于人类对于它们来说是低等甚至是不值一提的,以至于人类存在与否对于它们来说没有任何不同。

  毫不夸张地说,人工智能机器们试图和人类交流,就像人类想要和石头说话。

  换一个比方,考虑一下你对一只停在小臂皮肤上的蚊子的感受。当你打死它的时候,你会停下来想,你刚杀死的小生命是纳米科技工程的杰作,是20世纪科学家根本没有办法制造的吗?蚊子拥有几十亿个细胞,每一个细胞都可以看作一种大分子城市,细胞里的每一个分子就像城市里的人一样。大分子相对于细胞的大小就像人相对于城市一样。

  尽管蚊子是经过几十亿年进化的极其复杂和不可思议的生物,我们人类根本就不会考虑这些而轻易杀死它们,因为我们从来都只是把它们看成是一种有害生物。当我们漫步在森林里踩死一只蚂蚁,或者把蜘蛛冲到下水道里的时候,我们都会有同样的态度。

  谁又会说那些人工智能机器们不会对我们有同样的看法而消灭我们呢?拥有超级的“人造”智慧,做这些事情对它们来说是小菜一碟。

  对于地球主义者,这场辩论中最重要的词汇是“风险”。地球主义者争论说,人类从来就不该冒任何风险,比如像制造高级形式的人工智能机器可能会导致人类灭亡这样的风险。唯一让风险降为零的保险办法,就是永远不要制造人工智能机器。

  关键时候,如果地球主义者发现宇宙主义者真的要制造高级人工智能机器时,地球主义者可能会为了保证人类的生存而去消灭宇宙主义者。他们会认为,为了保护整个人类,而杀死几百万宇宙主义者是可以接受的。

  地球主义者们有理由认为这样的牺牲是合理的。举一个历史上类似的例子—— 在二次
世界大战的末期,斯大林的军队为了占领柏林和摧毁杀害了2 000万俄国人的希特勒纳粹政权,为了夺取纳粹占领的每一个欧洲城市,付出100 000俄国士兵伤亡的代价。对于斯大林来说,这样的牺牲是合理的,因为可以得到非常大的好处,那就是让俄国人从纳粹大屠杀的恐惧中解救出来。

  你可能会问:“真的会有人头脑清醒地选择做一个真正的宇宙主义者,冒着整个人类可能被灭绝的风险吗?”

  相信在未来,几百万人将会对这个问题给以肯定答案。我觉得,当更多的人意识到人工智能机器的发展前景,他们最终会支持人工智能机器的制造。本书将会用一个章节,以宇宙主义者的视角来论述为什么要支持制造人工智能机器。

  这些人,即宇宙主义者,将会给这些生命(一个人工智能机器等价于一万亿万亿个人类)的制造以更高的优先级别,因为它们是神一样的、永恒的、无所不能的,反而不会去理会人类可能被人工智能机器灭绝的风险。

  让我重新解释一下,以便没有人再对宇宙主义者的理念有疑问。宇宙主义者,定义为支持制造人工智能机器的人。人工智能机器如果被制造出来,它们迟早会发现人类是如此的低等,像一个有害物,从而决定来灭绝我们,不论以什么样的理由。因此,宇宙主义者已经准备接受人类被灭绝的风险。如果人类被灭绝,那意味着你我的后代也被消灭。那将是人类历史上最大的灾难,因为再也没有历史了,再也没有人类了。人类也将成为地球上曾经存在但已灭绝的那99%的物种之一。

  因此,对于地球主义者而言,宇宙主义者是魔鬼附身,比希特勒、日本帝国主义或者其他任何杀害亿万人类的政权都坏得多,因为受害的范围将大得多。现在我们谈论的不是几百万人的屠杀,而是整个人类,即几十亿人的灭绝。

  但是对于宇宙主义者来说,在这个无关紧要的小行星上谈论人类生存与否是微不足道的。因为这个行星围绕的恒星也只是我们这个星系上约2 000亿个恒星中微不足道的一颗,已知宇宙中同样的星系也有这么多(也是以10亿计算的),并且在这个多元宇宙中可能还有很多其他宇宙(根据一些最近的宇宙理论)。我称他们为“宇宙主义者”也正是基于他们的看法是宇宙范围的。他们更注重“大局”,意思就是说,在一个无关紧要的小行星上,灭绝超原始的、非人工智能的物种(也就是人类),对于人工智能机器的“上帝”来说是不重要的。


  本书将会用两章来陈述地球主义者和宇宙主义者各自的观点。他们双方的论证都很有说服力,意味着他们之间不可避免的冲突将会随着未来几十年人工智能辩论的白热化而更加敌对。

  我对未来潜在冲突的激烈程度感到担心,对这两种观点(地球主义者/宇宙主义者)支持的人数将不相上下。举个例子,当我对关于宇宙主义者/地球主义者/人工智能机器的情景进行讲座的时候,我经常请听众对他们自己是地球主义者或者宇宙主义者进行投票。我发现投票的结果不是我以前所预计的(10%是宇宙主义者,90%是地球主义者),而竟然是50︰50,60︰40,40︰60。人们对这个问题的看法分成了对立的两派。

  让我更沮丧的是,人工智能问题在21世纪将会非常热门。基本上可以肯定地说,在这个问题上的观点分歧会在21世纪后半段在地球主义者和宇宙主义者之间引发一场大战。如果你把从19世纪初期(拿破仑战争)到21世纪末期的历次重大战争的死亡数字列举在图表上的话,你会发现,这场战争带来的死亡数字可能是令人沮丧的几十亿,就是我所说的“大规模死亡”。

  地球上的人口数量只是几十亿而已,因此,我们得到了一个悲剧性的结论,那就是为了避免人类被人工智能机器种族灭绝,人类不得不进行内部的战争,并且(或基本上)杀完自己。

  这场我所谓的“人工智能战争”将会是历史上最波澜壮阔的,因为从来都没有如此高的赌注,那就是整个人类的生存。战争将用21世纪的武器进行,因此伤亡数字也将是21世纪的数量级。

  悲哀的是,对于这个令人沮丧的情形,尽管我尽了很多的个人努力仍然无法找到脱离困境的办法。我夜不能寐,试

返回目录 上一页 下一页 回到顶部 0 0

你可能喜欢的