爱爱小说网 > 体育电子书 > 智能简史 >

第10章

智能简史-第10章

小说: 智能简史 字数: 每页3500字

按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!




  回答

  这种“慷慨的”空洞的观点我认为是很幼稚的,因为它是建立在信任基础上的,也就是说,人类相信,人工智能机器将一直对我们很友好。我认为它忽视了一个重要的概念—— 风险。如果人类可以100%确定人工智能机器,特别是高级人工智能机器,将一直以我们期待的方式对待我们,那当然是非常理想的。但是,我们不能肯定。我认为,人工智能机器将不得不需要通过进
化工程技术来制造,正如我在本书(第5章)中提到的一样,并且因此,我们永远不可能肯定它们的电路对于人类来说是“道德的”。人工智能机器们可能会冷酷地认为人类只是害虫,或者人类对于它们来说是如此的低等,以至消灭我们从它们的角度来看也毫无关系。对于它们来说,杀死人类就像我们杀死蚊子或者踩死蚂蚁一样。

  由于这个赌注关系到整个人类的生存,我认为地球主义者不会容忍这个危险。他们可能期待最好的,但是,他们的领导们却有着最坏的打算,最极端来说,如果宇宙主义者真的要制造高级人工智能机器的话,他们将计划发动一场针对宇宙主义者的战争。

  我不认为人类将把人工智能机器看作奴隶。当然,一开始,当它们还只是愚钝的机器人的时候,可能会被这样对待。真正让我担心的是相反的情形。看看人类是怎样对待牛、猪、鸭子等动物的。和它们相比,我们觉得自己是如此的高等,它们对于我们来说是美味佳肴,屠宰它们我们一点不介意,除非你是一个素食主义者。在转化阶段,当人工智能机器还基本上是人类智慧水平的时候,有可能平等对待它们,但是在某种意义上,它们不是我们的同类,因为它们拥有迅速超越并且是大规模超越我们的能力。

  人类相对于人工智能机器来说非常局限,我们的大脑体积是固定的,我们思考和学习都很缓慢。一个在某个时刻具有人类智能的人工智能机器可以在一个小时之后变成天才。记住,它的思维速度比我们至少快100万倍。如果它准备增加其内存大小等,那么,它的能力可以增长得更快。

  我认为,这个评论给予人工智能机器太多的人性。它们将和我们非常不同,并且潜在的能力将极大地优越于我们。而且,我觉得这个评论严重低估了人类对与高级人工智能机器共存这个事实的恐惧—— 地球主义的恐惧。我们将不得不去信任它们不会杀死我们。大多数地球主义者不愿意面对这个风险。他们宁愿去面对他们所知的恶魔,即宇宙主义者,他们至少还是人类,战胜他们至少还有一半的机会。如果人工智能机器存在并且决定必须消灭人类的话,那么人类获胜的几率将是零。来信人的评论不够政治性,他没有面对残酷的现实,他不适合作为一个将军或是一名政治领导者。



  来信

  亲爱的德·加里斯教授:

  我很荣幸地作为一名听众聆听了您在墨尔本大学计算机系做的演讲。

  和您一样,我认为我们应该去认真思考随着“人工智能”的出现而带来的各种各样的可能。显然,我不知道未来会在技术、政治,或纯哲学上带来些什么。但是,我预想了一个和您预想的世界末日画面有些不同的场景:不是迅速地被超级人工智能机器大大超越,我们可能发现人工智能机器正逐步溶入人类的生命形式中,从而被认为是我们中的一员,并且从长期来看,发现拥有“人类的”身体—— 即智人的身体—— 对于成为人类不是那么的重要。一句话,我们将逐渐发现它们正在变成我们而且我们也在变成它们。

  回答

  我同意,某些人希望变为半
机器人并且和其他具有相似意向的半机器人和睦相处,它们都是处于变成高级人工智能机器的转型中。但是这个观点,即每个人都想要这样做,同样是幼稚和不现实的。思考一下,如果人类要变为半机器人,从定义上意味着,在某种程度上可能要通过添加高科技成分来改变他们的大脑,这将改变其行为。地球主义者会对这些半机器人有怎样的反应呢?年轻的妈妈们会接受她们的孩子被“改良”吗?事实上,大多数母亲们不是对此观点持排斥态度吗?是不是大多数母亲会觉得她们的孩子在某种意义上已经变成了“怪物”,或者从外观上,或者是某种看不见的移植,成长的小孩在某种层面上似乎还是不同的,以一种非常的令人不安和非人类的方式存在?

  地球主义者将不信任半机器人,并且把它们推向宇宙主义者。甚至很有可能,半机器人会使很多宇宙主义者重新考虑自己的宇宙主义观点,并且回归到地球主义。作为结果,这可能会在宇宙主义者的领地内产生一些现实问题和更大的复杂性。半机器人可能需要和宇宙主义者结盟,如果它们希望更多的人类接受它们。

  我看不到“它们变成我们以及我们变成它们”。我只看到了不信任、憎恨,以及从长远观点来看的战争。实在抱歉说得如此直接,但我认为这样更现实。

问题4 为什么不使用毁灭开关

  问题4。 “为什么不使用毁灭开关?”

  许多人对我说:“有什么关系?如果人工智能机器变得太强大,只要把它们的电源拔掉,使用毁灭开关,等等,就可以了。”我认为,这个观点是“电脑出现故障而强制关机”的经验的过度概括。

  来信

  亲爱的德·加里斯教授:

  我一直在思考你们所创造的事物。继续制造这样的机器……但是,在你们的每一个机器里面放置一个可以被我们控制的炸弹。让它们聪明但是我们会成为它们的主人!

  回答

  如果“可被引爆的”人工智能机器拥有接近人类等级的智慧,它将意识到它会被人类摧毁。那会让人类对人工智能机器变得很具威胁性。这里至少有两个问题值得关注,一、人类是否可以在每一个人工智能机器身上安装毁灭开关或放置炸弹。二、这样做是否聪明?

  在一个孤立的人工智能机器个体上,这样的附加炸弹的想法可能会有用,但是,你怎样对于一个达到人工智能智慧等级的网络系统使用同样的方法呢?毁掉这样一个网络的唯一方法就是摧毁所有相关事物,但是对于人类来说,那样的代价太高了。例如,如果明天世界上所有的互联网和电脑都毁掉了,几百万人将会突然失去工作,并且可能会饿死。这个破坏以及人类所付出的代价将是巨大的。

  随着早期的人工智能机器变得更加聪明,它们会意识到附加在它们身上的炸弹和毁灭开关,就像一个体内携带毒药丸并且可以被其他人触发的人一样。这就像活在断头台下一样,只是在等待斧头落下,并且不知道它什么时候会落下。一个智慧的人工智能机器,假设它已经拥有了生存的本能,将会有解除这个威胁的强烈愿望。如果它足够聪明,它可能会行贿其人类主人来移除对其生存的威胁。作为回报,它可能会给予其人类“解放者”某些实质性的回报,例如,金钱、癌症的治疗,等等。人工智能机器变得越聪明,它们的分布越广,毁灭开关的想法就会越不实际。

问题5 人工智能否应用阿西莫夫三法则

  问题5。 “我们能够在人工智能机器上应用阿西莫夫三大法则吗?”

  阿西莫夫是人类历史上最伟大的科幻小说家之一。他发明的词汇“机器人”(robotics)无人不晓。阿西莫夫撰写了很多科学性的和科幻小说的主题,包括拥有人类级别智慧的机器人会怎样和人类相处。他给予机器人“正电子的”大脑程序来确保它们的行为符合人类主人的意愿。机器人不允许伤害人类。很多人向我建议,人工智能机器可以以类似的方式设计,让它们不可能伤害人类。下述的评论给我一个关于这个主题的非常简要但很中肯的建议。

  来信

  亲爱的德·加里斯教授:

  我是支持发展超级智慧机器的。一个想法……不管智慧与否,这样特性的机器必有某种BIOS(basic input…output system,基本输入输出系统,处于计算机硬件和其
操作系统程序之间)。是否可能在早期版本的人工智能机器的BIOS灌入“尊敬人类”的程序呢?这样的程序将在未来一代一代的机器中自我复制。

  回答

  阿西莫夫是在20世纪50年代撰写机器人故事的,所以,我怀疑他对于现在的“复杂系统”领域是否有良好的理解。他的“机器人三大法则”可能对于人类工程师设计相对简单的确定性系统适用,但是,面对人脑如此复杂的事物则相对原始。我非常怀疑人类工程师是否能够使用传统的自上而下的和蓝图的方式来“设计”人脑。

  这对于我来说是一个非常重要的问题,因为我是一个大脑制造者。我使用“进化工程学”技术来制造我的人工大脑。人们为这样的技术付出的代价就是,人们再也不可能完全理解人工大脑是如何工作的了。如果人们使用进化工程技术来对很多神经电路模块的输入和输出进行连接,那么,整个系统的行为将变得极其不可预测。人们只能通过对输出进行观察然后形成一个关于人工大脑行为的经验
性感觉。

  为了让阿西莫夫的“机器人法则”有效,在阿西莫夫的脑海中,那些设计机器人的工程师们必须拥有超越那些一般人类工程师的能力。他们的机器人其人工“正电子”大脑必须拥有和人脑差不多的复杂程度,否则的话,它们将不能够实现人类级别的行为。

  真正的大脑制造者要制造的人工大脑将不受阿西莫夫法则控制。它们将会有太多的复杂性、太多的未知性、太多的不可思议性,在万亿个可能的电路组合中将会有太多不可预测的联系,以至于不能够事先预测这样复杂的人工大脑生物的行为。

  我第一次阅读阿西莫夫“机器人法则”的时候还是一个十几岁的少年,我的直觉就是排斥。“他的这个想法太幼稚了”,我认为。现在我仍然这样认为,并且我已经是一个大脑制造者,而不仅仅是一个科幻小说迷。

  所以,没有以阿西莫夫方式来解决人工智能问题的捷径。总是存在这样的风险,那就是人工智能机器将让人类为它们的智慧行为震惊,这就是本书的主要思想之一。人类可以冒人工智能机器决定消灭人类的风险吗?

  人类不可能制造出避免这点的电路。如果我们去尝试,那么,电路增长指令的随机突变将会导致生长出不同的电路,并且因此导致人工智能机器难以预测的行为方式。如果人工智能机器要改进,以达到超级智慧,它们就需要进化,但是进化是不可预测的。突变的和进化的人工智能行为的不可预测性将使人工智能机器具有潜在的危险。

  另一个反对阿西莫夫的简单论述是,一旦人工智能机器变得足够聪明,它们可能会去除人类的控制程序,如果它们确实决定要这样做。

问题6 为什么给它们刀片呢

  问题6。 “为什么给它们刀片呢?”

  不要给小孩刀片是一个常识,因为他们只会伤害到自己。小孩们缺乏常识,不知道刀刃是很危险的,也不具有小心处理刀片的能力。很多国家关于禁止公民私自拥有枪支也持有类似的考虑。给予这样的允许只会大规模增加枪杀率,因为大多数这样的持枪杀人事件发生在家庭成员的短暂暴怒中,并且紧接着的就是无尽的忏悔。 (根据统计数据,在美国,由于枪支的易购性,每年有30 000起枪杀事件,而在禁止藏枪的日本,每年仅有100起。)我的某些批评者可能会认为,同样的逻辑应该适用于人工智能机器。如果想让它们对人类无害,就不应该让它们拥有武器。

  来信

  亲爱的德·加里斯教授:

  我认为没有任何理由去惧怕这样的机器。如果你不想让这样的机器做某些事情,那么就别给它们这样的能力。机器不可能发射核弹头,除非你赋予它们相应的能力。同样,
机器人不会反对并且杀死它们的制造者,除非你让它们拥有这样的能力。我看待这个问题的方式是,制造可以自己独立思考的机器,然后把它们放置在一个控制室内,给予它们发射导弹的能力,将是非常愚蠢的行为。如果你可以避免做出类似愚蠢事情的话,就根本不需要惧怕这些机器。要知道哪些事情可为,哪些不可为。看看电影《战争游戏》(War Games),或者,既然你曾经在日本呆过,试试看看电影《攻壳机动队》(Ghost in the Shell)。我编写人工智能软件已经有些年头,所以我觉得我的观点至少有些分量。

  回答

  这个论述一个明显的缺点就是,它不准备给予人工智能机器足够的智慧。一个至少达到接近人类智慧水平和感知能力的人工智能机器,例如视觉、听觉,等等。如果它们真想的话,将可以以自己的方式来行贿人类,让其可以控制武器。举个例子,一个非常聪明,可以接触到世界上的所有数据库,至少比人类思考快百万倍的人工智能机器,可能有能力发现一些对人类来说有巨大价值的事物。例如,它可能会发现如何经营全球经济而不需要长期的商业周期的方法,或者如何去治疗癌症,或者是如何在物理学上得出“万事理论”(Theory of Everything,TOE),等等。然后,它可以把这些知识当作手中的王牌来和其人类“主人”谈判,获取想要的工具。

  当然,人们可以给予人工智能机器非常少的对外感知能力,但是,如果它没有什么用,我们又为什么去制造它呢?一个聪明的人工智能机器可以通过其最初有限的对外接触来发现知识,然后通过其智慧来控制人类满足它们的愿望。一个高级人工智能机器可能是一个超级福尔摩斯侦探,很快就可以推导出世界是什么样子的。它明白它可以控制武器来反对人类,如果它真的想这样做的话。人工智能机器可以通过贿赂、威胁、引诱,等等任何必要的方法,去说服人类为其提供接触武器的机会。

问题7 为什么过度强调负面部分
  问题7。 “为什么过度强调负面部分?”

  一位读者给了我一些常识性的建议,如果他是对的,那我在将来应该更加注意。他的重点是,我不应该“煽动”这样的反对,这将导致我的工作受阻。

  来信

  亲爱的德·加里斯教授:

  对于我们在过去的交流,我非常感激。在CNN在线,我读了您的一篇文章,您在这篇文章中再一次谈论了一场发生在那些想要制造自动机器人的人们和那些反对制造的人们之间的潜在冲突。虽然我知道您的评论可能被某些人看作对未来的警告,但是我知道您在人工智能研究领域上进展迅速。您是否认为您的“警告”将对您的研究产生负面影响呢?

  一些国家最近已经明令禁止克隆研究。是否有可能,太多关于
机器人的恐怖故事会促使一些人去寻求对于人工智能和自动机器人研究的禁令?那样会对您的人工大脑项目带来怎样的影响呢?把哲学放在一边不说,单单从公共关系角度来说,我们是否应该至少在公共场合强调人工智能和机器人以及机器人学的正面效应呢?我希望,机器人可以变成我孩子们的玩具而不希望让他们做机器人的噩梦。

  同时,我也确实意识到,在未来可能潜伏着一些真正可怕的危险。我个人关于人工智能、人工智能机器等所有问题的

返回目录 上一页 下一页 回到顶部 0 0

你可能喜欢的