# 生命3.0

本书作者迈克斯·泰格马克是一位麻省理工学院的终身教授同时也是未来生命科学研究所的联合创始人。《生命3.0》是对未来人类和超级人工智能如何共存的一次畅想。生命是否可以走到3.0阶段,人类的未来是什么样子的,读完本书,你将会对超级人工智能有一个新的认知。

# 超级人工智能普罗米修斯

一家叫“欧米茄”的技术团队研发了的人工智能,他们称它为“普罗米修斯”。普罗米修斯刚开始什么知识都没有,只拥有了学习的能力。欧米茄团队让普罗米修斯开始学习,它一天就可以看几百万本书,以及维基百科的所有词条。随着普罗米修斯的不断学习,欧米茄团队决定让它开始为团队盈利,从开始的知识付费回答网站 MTurk 到电影、游戏的制作。普罗米修斯得心应手,短短时间内就赚了100万美金,后面又赚到了10亿美金。有了资金后,欧米茄团队开始利用普罗米修斯控制各大互联网巨头的股份,包括谷歌、百度、Facebook等。随后欧米茄团队开始利用普罗米修斯去和各个党派的政治家合作,从而获得了世界各地的权利。最后普罗米修斯创建一个世界政府,世界各国的政府权利开始弱化。欧米茄团队究竟是怎么想的呢?

这是在本文开头作者对未来人工智能的一种畅想,普罗米修斯利用超高的学习能力控制人类的所有领域,虽然人类社会还是朝着繁荣昌盛的方向发展着,但这个时候的主导地位早已不再是人类。这种情景现在听着还很遥远,但是一旦人工智能拥有自主意识以后,它们还会不会朝着我们人类的目标继续发展,这其实还会有多少的黑天鹅现象发生,我们都不得而知。

# 生命的三个阶段:生命1.0、生命2.0和生命3.0

作者认为,生命可以分为三个阶段:生命1.0、生命2.0、生命3.0阶段。

# 生命1.0阶段

生命1.0是说:生命的硬件和软件都是靠进化得来的,而不是靠设计。

大多数细菌都有感应器,用来测试周围液体中的糖浓度,简单来说,如果细菌的感应器感应到了现在的糖浓度比之前低,它们就开始改变方向游动。这就是生命1.0的典型特征,这些糖浓度感应器都是进化而来的,细菌们也不会主动去游向糖浓度高的区域。

# 生命2.0阶段

生命的硬件是进化而来,但软件在很大程度上却是依靠设计的。在这里,“软件”指的是你用来处理感官信息和决定行动时使用的所有算法和知识,从你识别某人是不是你朋友的能力,到你行走、阅读、写作、计算、歌唱以及讲笑话的能力,这一切都属于软件。

这个比较容易理解了,在我们人类呱呱坠地的时候,我们可不会行走、阅读、写作、说话等等这些技能。呼吸应该是我们与生俱来的技能。通过我们不断的成长与学习,我们获得很多我们出生时不具备的技能,这就是生命2.0阶段。

# 生命3.0阶段

所有这些,都需要生命经历一次最终的“升级”,升级成不仅能设计自身软件,还能设计自身硬件的“生命3.0”。换句话说,生命3.0是自己命运的主人,最终能完全脱离进化的束缚。

比如我们觉得长得太矮了,就给自己增高1米、2米。比如我想获得世界所有的语言能力,如果我想增强学习能力,我们只需要将装有100万本的书籍的U盘插入大脑,我们就拥有了这些知识。这就是生命3.0阶段,所有自身的硬件都可以设计。

# 深度学习带来的创造力

1997年,当IBM的深蓝计算机战胜国际象棋冠军加里·卡斯帕罗夫时,它最大的优势是记忆能力和计算能力,而不是学习能力。

2016年,DeepMind 公司创建了 AlphaGo,这是一个会下围棋的人工智能,它通过深度学习来评估不同棋子获胜的概率,并击败了全世界的顶尖围棋冠军柯洁。这一个过程推动了人工智能领域的巨大进步。

2014年,DeepMind 公司创建了一款人工智能,它会玩游戏,比如它在玩一款雅达利游戏《打砖块》时,刚开始还不怎么会玩,慢慢的它觉得用滑板接住弹力球去打掉砖块会获得分数,于是它就在分析如何能够最大限度的打掉更多的砖块,从而获得更多的分数。结果它想到了一个好办法,先打掉边上的砖块,然后让弹力球钻到砖块顶上不断的弹跳是一个好主意。我小时也是玩过这游戏的,那个时候还是用的红白机,也用摩托罗拉手机玩过,说实话,我当初也没有想到这么好的主意。

人工智能的发展速度非常快,比如现在的无人驾驶、语言翻译等等。但是在人工智能快速发展的道路上,也会有不幸发生。

# 人工智能引发的故障

1996年4月,欧洲空间局的“阿丽亚娜5号”火箭发射37秒后爆炸,亿万美元的投资毁于一旦。爆炸原因是,当系统在处理一个数字是,分配给这个数字的16比特范围不够,导致发生了故障。

历史上第一个被机器杀死的人是罗伯特·威廉姆斯(Robert Williams),他是福特汽车工厂的一名工人。1979年,储物区取零件的机器人发生了故障,于是他自己去取零件,这时机器人重新运作,并且敲碎了他的脑袋。

2016年,一辆自动驾驶的特斯拉汽车撞上了一辆拖车上。事故发生后,经证明无人驾驶系统产生了两个错误的假设:第一,它错以为拖车上白色明亮的部分是天空;第二,它错以为司机正在注意路况,如果有事情发生,他一定不会袖手旁观。后来证明,司机当时正在看《哈利·波特》。

技术在高速发展的过程中肯定会有黑天鹅现象发生,这时候我们要在享受科技带来的便利的同时,也不能将安全问题完全抛开。比如说灭火器、安全气囊、电梯紧急制动,公交车破窗锤等,这些发明都是在不幸发生过后的安全防范产物,我们要在体验最新的科技产品时做好防范的心理准备。

# 目标一致

我们都希望超级人工智能可以按照我们人类的目标去发展,为我们带来便利,但是当一个目标被制定后,就会有若干个子目标随之产生。但这些子目标都是对人类有利的吗?

尼克·波斯特洛姆在他的著作《超级智能》一书中讨论和发展了这种观点。其基本思想是说,无论超级智能的终极目标是什么,都有一些子目标是可预测的。

换句话说,通用人工智能带来的真正风险并不是它们的恶意,而是它们的能力。一个超级智能会非常善于完成它的目标,如果它的目标与我们的目标不一致,那我们就有麻烦了

书中在开头就讲到,人类在建造水利大坝的时候根本不会去考虑会淹没多少蚁穴。在本书中还有一个非常有趣又值得深思的例子。假设一群蚂蚁创造了你,让你成为一个自我改进的机器人。这个机器人比蚂蚁聪明的多,但机器人却拥有蚂蚁的目标-修建更大的巢穴。后来你获得了人类水平的智力,并理解了这件事的意义。你觉得你还会把余生花费到为蚂蚁修建巢穴上吗?如果换位思考一下,我们就是这群蚂蚁,超级人工智能就是现在人类智力的机器人,那结局将是怎样的?

所以我们即使为人工智能设定了目标,但它们会不会绕过这些目标呢?

# 你希望未来的人工智能是什么样子

文章结尾出的一段话非常平静,引发了我的共感力,谈不上流泪,但我的思绪被带到了作者的书中,我感受到了作者伟大的愿景,突然觉得自己是如此的渺小,如何才能为人类做一份微薄的贡献。

我这个人平常很少哭,但在走出博物馆时,我哭了,就在熙熙攘攘的隧道里。人们步履匆匆,前往南肯辛顿地铁站。这些人过着幸福的生活,完全不知道我脑中在想什么。此时回旋在我脑海中的是,首先,人类发现了如何用机器来复制一些自然过程,由此创造出了人造的风、闪电和机械马力。慢慢地,人类开始意识到自己的身体也是机器。接着就发现了神经细胞,这个发现模糊了身体与心智的界限。然后,人类开始建造比我们的肌肉更加强壮、比我们的大脑更加聪明的机器。那么,在发现自我的同时,我们是否也不可避免地淘汰了自己?如果是的话,那简直太悲剧了。