论文部分内容阅读
中国建材规划研究院副院长张时秀发来信息:“新闻:牛津科学家研究认为,人类最快于下世纪灭绝,高科技是祸首,和你的结论完全一致!恭喜你有了国际理论成果的验证,望继续努力研究并呼吁。”
我即刻上网查寻,网上报道:
“牛津大学人类未来研究院一研究小组日前表示,人类最快下个世纪就会灭绝,高科技是罪魁。该研究小组由众多数学家、哲学家和科学家组成。牛津大学人类未来研究院院长博斯特罗姆说:科技的发展正在与人类的智慧比赛,人类需要足够的智慧去驾驭技术力,我担心技术会领先太多。
该研究小组还进一步指出,人类的灭绝并不是遥不可及的事情,如果人类不正视并着手解决这一问题,最快下个世纪,人类末日就将来临。”
回想起来,我从事人类问题的研究达34年,“科学技术的继续发展必定很快灭绝人类,长则二三百年,短则百年内”,这是我最重要的研究结论之一。2007年7月,我的《拯救人类》一书出版后仅卖了两天就因故停止了发行,之后我又出版了一系列的著作,发表了一系列的文章,努力寻求在多种场合进行演讲和表达,两次向中国国家主席写信,两次向美国总统写信,还向俄罗斯总统、法国总统、英国首相、联合国秘书长等许多人类领袖写信,阐述我的观点,请求他们能够挺身而出,领导我们肩负起拯救人类的神圣使命,因为只有大国领袖才最具有拯救人类的能力。
我的所有信件都石沉大海,而外界对我的呼吁绝大多数的评价是耸人听闻、哗众取宠,甚至还有许多的嘲笑。没想到现在却传来了一个权威研究机构的研究成果,竟然与我的研究成果完全吻合。
真是知音啊!我非常感概,我想我得做一点什么。
我即刻向博斯特罗姆写信,希望能够见面交流,最好能够共同成立一个研究机构。我又给一位在知名电视台任台长的朋友打电话,希望能在他的电视台讲讲我的观点,但他有些犹豫,他说你可以这样讲:科学技术必须理性地发展,善意地发展,比喻核武器落到坏人手中就会毁灭人类,有些昧良心的人研究有毒的食品添加剂就是害人,因此,不怀善意地发展科学技术就会毁灭人类。
我坦率地谈了我的不同观点:科学技术不再是简单地毁灭人类,而是会灭绝人类,灭绝就是一个人都不剩。另外,不是非善意的科学研究才会灭绝人类,是不管非善意还是善意地发展科学技术,都会很快灭绝人类。如不马上采取措施,二三百年之内人类必被灭绝,本世纪内都有被灭绝的可能。
我的台长朋友认为这有些耸人听闻,观众很难接受,但我则坚持这个结论是一个科学的结论,是一个真理性的结论。
科学技术防不胜防
科学技术的继续发展必定会灭绝人类的理由如下:
首先,科学技术有灭绝人类的能力。
科学技术是一把双刃剑,既能造福人类,也能毁灭人类,造福人类的能力越强,毁灭人类的威力就越大,随着科学技术不断向更高层级发展,终究会具备灭绝人类的能力,即灭绝手段必然会出现。今天的核武器相比明天的智能机器人、纳米机器人或者别的什么高科技的东西将不值一提。
拿智能机器人来说,其灭绝人类的能力就是毋庸置疑的。
当科学家发明机器替代人类的体力劳动后,有了飞机、火车、巨轮,这些机器把人的体能提高了千万倍;当科学家发明计算机替代人脑的计算,今天一台计算机每秒运算速度超过亿亿次,这也就是把人类的运算能力提高了亿亿倍;当人类发明杀戮手段来替代自己的拳打脚踢之后,有了核武器,核武器的爆炸威力可达数千万吨TNT当量,从而把人类的屠杀能力提高了千万倍。
那么再试想,智能机器人是能够像人类一样进行复杂思考的机器,当智能机器人能够像人类一样进行复杂思考之后,就会迅速进化,思考的能力将会超过人类千倍、万倍甚至亿倍。智能机器人之父雨果·德·加里斯就形象地比喻,在智能机器人面前,人类的反应速度还不如石头风化那么快,相对智能机器人人类的智商几乎等于零。
自然界的规律,从来就是高智商的物种鄙视低智商的物种,甚至把低智商的物种进行烹炸煮烤,当成食物或者当成玩偶。当智能机器人超过人类的那一刻起,人类也就完蛋了。
还有科学家担心纳米机器人会灭绝人类。纳米机器人是一种分子大小的机器人,用这些机器人专门搬运原子,以实现人类的目标。例如:可以让纳米机器进入人的血管,去掉沉积于静脉血管上的胆固醇;用纳米机器人跟踪身体中的癌细胞,在癌细胞才只有少量几个时便将其杀死;让纳米机器人将草地上剪下的草立刻变为面包;将回收的废钢铁立刻变为一辆辆崭新的高档小轿车等等。总之,纳米技术的未来非常美妙。
但有一个问题,相对于一个纳米机器人能够创造的价值而言,制造一台纳米机器人却十分昂贵,因为纳米机器人实在太小了,虽然它能做的事很有意义,但其效率却非常低,因为即使一个纳米机器人十分辛劳地不断工作,但一天工作下来其收获只能以原子数来计算,哪怕数量很大,如搬运了上亿的原子,但加起来也就针尖那么大。
于是,科学家想到了一个办法,这就是在编制纳米机器人程序的时候要同时给出两个指令,第一个指令当然是需要它去完成的那项工作,第二个指令则是要这个纳米机器人复制多个自己,目的是让众多的纳米机器共同完成那项需要完成的工作。因为纳米机器人具有搬运原子的本领,纳米机器人本身又是由并不多的原子所组成的,所以复制一个自己是非常容易的事。要是这样,如果一个纳米机器人复制十个自己,十个便可复制百个,百个将可复制千个……于是,万万亿亿个纳米机器人便可在很短的时间复制出来。因此,有了第一个纳米机器人后便可以万事大吉,因为由它复制的亿万个机器人会与它一道来完成人类指令的工作。
但是,一个麻烦的问题产生了,那就是这些纳米机器人要是一味地复制下去不知停顿怎么办呢?我们人类的身体,以及我们的地球都是由原子组成的,如果纳米机器人在我们身体内把我们身体中的各个原子都当成它们的生产材料,很快我们的身体就会被吞噬,如果纳米机器人永不停歇地复制下去,我们整个地球同样并不需要多久就会被吞噬,如果这样的纳米机器人不小心被宇宙尘埃带到别的星球,同样会把别的星球全部吞噬。这是一个极其可怕的问题。 然而,有科学家很自信能够控制这样的灾难,他们认为能够设计出一种程序使纳米机器人在复制数代后自我摧毁,或者设计出只在特定条件下自我复制的机器人,例如:要是让这样的机器人专门改造垃圾,那么这些纳米机器人便只能在有垃圾的环境下自我复制,而且只会用垃圾复制自己,而在别的环境下,或者用别的材料决不复制自己。
这些科学家的想法虽然好,但实在太理想化了。一些更理性的科学家质疑这一想法,他们提出,如果这些机器人的程序出了毛病不终止复制怎么办?如果有科学家在编制程序时不小心忘了加入这一控制自我复制的程序怎么办?如果有一个丧尽天良或者心理变态的科学家,在设计纳米机器人时故意不加入这种控制程序来危害人类和地球怎么办?以上的任何一种可能只要出现一次,便意味着人类必遭灭绝、地球必遭毁灭。任何人都可以感受到,一只蝗虫没事,亿万只蝗虫可以毁灭一切的道理。
不论是智能机器人还是纳米机器人,其实,人类离彻底掌握这样的技术已经并不遥远。而且可以肯定,还有比智能机器人和纳米机器人厉害得多的东西,只要科学技术不停止发展,人类又还没有灭绝,这些东西都会研制出来。
有人提出,我们完全可以组织最好的科学家对每一项高科技进行把关。先不论这种设想能否完全实现,即使真的能够实现,也不可能真正把好关,因为不可确定性是科学技术的固有特性,爱因斯坦和牛顿都有许多科学失误的例子,况且并不是每一个科学家都有爱因斯坦和牛顿的水平。
正如认为氟利昂好,却导致了臭氧层的破坏;认为DDT农药好,却导致了生物多样性的丧失。至于所说的智能机器人,人们研制也许只是为了让它们造福人类,但当它们超过人类的智慧后就必然会失控。有人说,人类能够创造它就能够控制它,这是愚蠢的想当然,普通机器还有失控的时候,况且智商远超人类的智能机器人!纳米机器人的失控也是相似的道理。
记得2011年日本大地震导致福岛核电站核泄漏,就有不少原来反对我观点的朋友与我联系,开始认同我科学技术防不胜防的道理。
发展麻木导致危机麻木
那么,科技灭绝人类还有多远?
很近!
我们知道,科学技术在18世纪中叶的工业革命前还处于极低的水平,仅两百多年就发展到了今天这么高的层级,一枚核弹顷刻间可以毁灭一座数百万人的城市,采用转基因技术改造的生物毒素也许比核武器还要可怕。在如此高的科学层级的基础上再往前发展,完全可以想象五十年后,一百年后世界会是怎么样的情况,何况科学技术呈裂变加速状发展,今天比过去发展快得多,未来又比今天快得多。
事实上,在今天的科学研究中,人们对其安全性的担忧早已经不是它可能会有多大的危害,而是担心这些研究是否会灭绝人类。科学家曾担心原子弹实验和氢弹实验会点燃大气灭绝人类,曾担心欧洲强子对撞机实验会灭绝人类,当然,事后看来这些担忧都是多余的。今天科学家又担心纳米机器人的无限复制,以及智能机器人的失控会灭绝人类,但这些科学研究仍然在进行,没有人能够阻止。让我们理性地想一想,一些科学研究你认为它们有可能灭绝人类,坚决反对,我则认为它们是安全的,全然不顾地推动它;反过来,另一些科学研究我反对时,你则认为安全,我也阻止不了你。于是,科学技术就这样失去了控制地疯狂向前,向前,向前。然而,不可确定性是科学技术的固有特性,越是高端科技就越难准确地判断。简单的道理是,这种侥幸绝不可能永远延续下去,反对者必有言中的时候。正如常在河边走总会要湿鞋,夜路走多了一定碰见鬼,当这种非理性的行为把科学技术一步一步推向更高的层级,只要我们碰上一次“鬼”,人类的路也就走到了尽头。
事实上,科学技术的发展实在太快了,而人们对不断涌现出的科学技术成果则变得越来越麻木。19世纪初当照相技术发明时,照一张相要在阳光下一动不动地坐上几个小时,即使这样,新奇的人们还愿意试一试。X射线刚发现时,人们奇怪万分,谁都想通过X射线看一看自己的身体内部结构,包括王公贵族也是如此。当电灯还处在试验阶段时,就已经把那些记者惊得目瞪口呆。然而,如今几乎任何一个创造发明都再难以引起人们的惊奇与轰动了。
对发展麻木必然导致对危机麻木,当人们对一切科学技术成果都不加思索、理所当然地接受之时,也必然会对科学技术成果的负面作用表现出麻木不仁。然而灾难总源于麻木,在滔天巨浪到来之前,海面通常非常平静,但暗流却在海底涌动,当全社会都已麻木不仁之时,一场灭绝性的灾难说不定就在前面不远。
遗憾的是,人类对于自己的处境还蒙在鼓里,对科学技术极其巨大的毁灭力认识远远不足,甚至连最杰出的政治家和科学家都没有对此产生足够的重视,至于采取实质性的防范措施更是一件极其遥远的事。人类的精英们更多是安于对科学给人类带来的各种成果的享受,而对科学带给人类的各种危害所采取的措施只是头痛医头、脚痛医脚,至于科学一定会给人类造成灭绝性灾难,任何最有权力的领袖们都还没有实质性的觉悟。
其实,科学技术防不胜防了!
以上的道理也许我最终不能说服我的台长朋友,但今天已经有像牛津大学人类未来研究院这样的权威研究机构得出了和我完全一致的结论,我已经看到了一丝未来的曙光,我相信更多的人会关注这一事关人类生死存亡的问题—只要多数人普遍认同上述观点,未来我们就会找到解决的办法。
也许博斯特罗姆院长不会接受我的邀请,但我还是会把他和他的研究院当成知音,因为我们有着对人类命运共同的关切。
我即刻上网查寻,网上报道:
“牛津大学人类未来研究院一研究小组日前表示,人类最快下个世纪就会灭绝,高科技是罪魁。该研究小组由众多数学家、哲学家和科学家组成。牛津大学人类未来研究院院长博斯特罗姆说:科技的发展正在与人类的智慧比赛,人类需要足够的智慧去驾驭技术力,我担心技术会领先太多。
该研究小组还进一步指出,人类的灭绝并不是遥不可及的事情,如果人类不正视并着手解决这一问题,最快下个世纪,人类末日就将来临。”
回想起来,我从事人类问题的研究达34年,“科学技术的继续发展必定很快灭绝人类,长则二三百年,短则百年内”,这是我最重要的研究结论之一。2007年7月,我的《拯救人类》一书出版后仅卖了两天就因故停止了发行,之后我又出版了一系列的著作,发表了一系列的文章,努力寻求在多种场合进行演讲和表达,两次向中国国家主席写信,两次向美国总统写信,还向俄罗斯总统、法国总统、英国首相、联合国秘书长等许多人类领袖写信,阐述我的观点,请求他们能够挺身而出,领导我们肩负起拯救人类的神圣使命,因为只有大国领袖才最具有拯救人类的能力。
我的所有信件都石沉大海,而外界对我的呼吁绝大多数的评价是耸人听闻、哗众取宠,甚至还有许多的嘲笑。没想到现在却传来了一个权威研究机构的研究成果,竟然与我的研究成果完全吻合。
真是知音啊!我非常感概,我想我得做一点什么。
我即刻向博斯特罗姆写信,希望能够见面交流,最好能够共同成立一个研究机构。我又给一位在知名电视台任台长的朋友打电话,希望能在他的电视台讲讲我的观点,但他有些犹豫,他说你可以这样讲:科学技术必须理性地发展,善意地发展,比喻核武器落到坏人手中就会毁灭人类,有些昧良心的人研究有毒的食品添加剂就是害人,因此,不怀善意地发展科学技术就会毁灭人类。
我坦率地谈了我的不同观点:科学技术不再是简单地毁灭人类,而是会灭绝人类,灭绝就是一个人都不剩。另外,不是非善意的科学研究才会灭绝人类,是不管非善意还是善意地发展科学技术,都会很快灭绝人类。如不马上采取措施,二三百年之内人类必被灭绝,本世纪内都有被灭绝的可能。
我的台长朋友认为这有些耸人听闻,观众很难接受,但我则坚持这个结论是一个科学的结论,是一个真理性的结论。
科学技术防不胜防
科学技术的继续发展必定会灭绝人类的理由如下:
首先,科学技术有灭绝人类的能力。
科学技术是一把双刃剑,既能造福人类,也能毁灭人类,造福人类的能力越强,毁灭人类的威力就越大,随着科学技术不断向更高层级发展,终究会具备灭绝人类的能力,即灭绝手段必然会出现。今天的核武器相比明天的智能机器人、纳米机器人或者别的什么高科技的东西将不值一提。
拿智能机器人来说,其灭绝人类的能力就是毋庸置疑的。
当科学家发明机器替代人类的体力劳动后,有了飞机、火车、巨轮,这些机器把人的体能提高了千万倍;当科学家发明计算机替代人脑的计算,今天一台计算机每秒运算速度超过亿亿次,这也就是把人类的运算能力提高了亿亿倍;当人类发明杀戮手段来替代自己的拳打脚踢之后,有了核武器,核武器的爆炸威力可达数千万吨TNT当量,从而把人类的屠杀能力提高了千万倍。
那么再试想,智能机器人是能够像人类一样进行复杂思考的机器,当智能机器人能够像人类一样进行复杂思考之后,就会迅速进化,思考的能力将会超过人类千倍、万倍甚至亿倍。智能机器人之父雨果·德·加里斯就形象地比喻,在智能机器人面前,人类的反应速度还不如石头风化那么快,相对智能机器人人类的智商几乎等于零。
自然界的规律,从来就是高智商的物种鄙视低智商的物种,甚至把低智商的物种进行烹炸煮烤,当成食物或者当成玩偶。当智能机器人超过人类的那一刻起,人类也就完蛋了。
还有科学家担心纳米机器人会灭绝人类。纳米机器人是一种分子大小的机器人,用这些机器人专门搬运原子,以实现人类的目标。例如:可以让纳米机器进入人的血管,去掉沉积于静脉血管上的胆固醇;用纳米机器人跟踪身体中的癌细胞,在癌细胞才只有少量几个时便将其杀死;让纳米机器人将草地上剪下的草立刻变为面包;将回收的废钢铁立刻变为一辆辆崭新的高档小轿车等等。总之,纳米技术的未来非常美妙。
但有一个问题,相对于一个纳米机器人能够创造的价值而言,制造一台纳米机器人却十分昂贵,因为纳米机器人实在太小了,虽然它能做的事很有意义,但其效率却非常低,因为即使一个纳米机器人十分辛劳地不断工作,但一天工作下来其收获只能以原子数来计算,哪怕数量很大,如搬运了上亿的原子,但加起来也就针尖那么大。
于是,科学家想到了一个办法,这就是在编制纳米机器人程序的时候要同时给出两个指令,第一个指令当然是需要它去完成的那项工作,第二个指令则是要这个纳米机器人复制多个自己,目的是让众多的纳米机器共同完成那项需要完成的工作。因为纳米机器人具有搬运原子的本领,纳米机器人本身又是由并不多的原子所组成的,所以复制一个自己是非常容易的事。要是这样,如果一个纳米机器人复制十个自己,十个便可复制百个,百个将可复制千个……于是,万万亿亿个纳米机器人便可在很短的时间复制出来。因此,有了第一个纳米机器人后便可以万事大吉,因为由它复制的亿万个机器人会与它一道来完成人类指令的工作。
但是,一个麻烦的问题产生了,那就是这些纳米机器人要是一味地复制下去不知停顿怎么办呢?我们人类的身体,以及我们的地球都是由原子组成的,如果纳米机器人在我们身体内把我们身体中的各个原子都当成它们的生产材料,很快我们的身体就会被吞噬,如果纳米机器人永不停歇地复制下去,我们整个地球同样并不需要多久就会被吞噬,如果这样的纳米机器人不小心被宇宙尘埃带到别的星球,同样会把别的星球全部吞噬。这是一个极其可怕的问题。 然而,有科学家很自信能够控制这样的灾难,他们认为能够设计出一种程序使纳米机器人在复制数代后自我摧毁,或者设计出只在特定条件下自我复制的机器人,例如:要是让这样的机器人专门改造垃圾,那么这些纳米机器人便只能在有垃圾的环境下自我复制,而且只会用垃圾复制自己,而在别的环境下,或者用别的材料决不复制自己。
这些科学家的想法虽然好,但实在太理想化了。一些更理性的科学家质疑这一想法,他们提出,如果这些机器人的程序出了毛病不终止复制怎么办?如果有科学家在编制程序时不小心忘了加入这一控制自我复制的程序怎么办?如果有一个丧尽天良或者心理变态的科学家,在设计纳米机器人时故意不加入这种控制程序来危害人类和地球怎么办?以上的任何一种可能只要出现一次,便意味着人类必遭灭绝、地球必遭毁灭。任何人都可以感受到,一只蝗虫没事,亿万只蝗虫可以毁灭一切的道理。
不论是智能机器人还是纳米机器人,其实,人类离彻底掌握这样的技术已经并不遥远。而且可以肯定,还有比智能机器人和纳米机器人厉害得多的东西,只要科学技术不停止发展,人类又还没有灭绝,这些东西都会研制出来。
有人提出,我们完全可以组织最好的科学家对每一项高科技进行把关。先不论这种设想能否完全实现,即使真的能够实现,也不可能真正把好关,因为不可确定性是科学技术的固有特性,爱因斯坦和牛顿都有许多科学失误的例子,况且并不是每一个科学家都有爱因斯坦和牛顿的水平。
正如认为氟利昂好,却导致了臭氧层的破坏;认为DDT农药好,却导致了生物多样性的丧失。至于所说的智能机器人,人们研制也许只是为了让它们造福人类,但当它们超过人类的智慧后就必然会失控。有人说,人类能够创造它就能够控制它,这是愚蠢的想当然,普通机器还有失控的时候,况且智商远超人类的智能机器人!纳米机器人的失控也是相似的道理。
记得2011年日本大地震导致福岛核电站核泄漏,就有不少原来反对我观点的朋友与我联系,开始认同我科学技术防不胜防的道理。
发展麻木导致危机麻木
那么,科技灭绝人类还有多远?
很近!
我们知道,科学技术在18世纪中叶的工业革命前还处于极低的水平,仅两百多年就发展到了今天这么高的层级,一枚核弹顷刻间可以毁灭一座数百万人的城市,采用转基因技术改造的生物毒素也许比核武器还要可怕。在如此高的科学层级的基础上再往前发展,完全可以想象五十年后,一百年后世界会是怎么样的情况,何况科学技术呈裂变加速状发展,今天比过去发展快得多,未来又比今天快得多。
事实上,在今天的科学研究中,人们对其安全性的担忧早已经不是它可能会有多大的危害,而是担心这些研究是否会灭绝人类。科学家曾担心原子弹实验和氢弹实验会点燃大气灭绝人类,曾担心欧洲强子对撞机实验会灭绝人类,当然,事后看来这些担忧都是多余的。今天科学家又担心纳米机器人的无限复制,以及智能机器人的失控会灭绝人类,但这些科学研究仍然在进行,没有人能够阻止。让我们理性地想一想,一些科学研究你认为它们有可能灭绝人类,坚决反对,我则认为它们是安全的,全然不顾地推动它;反过来,另一些科学研究我反对时,你则认为安全,我也阻止不了你。于是,科学技术就这样失去了控制地疯狂向前,向前,向前。然而,不可确定性是科学技术的固有特性,越是高端科技就越难准确地判断。简单的道理是,这种侥幸绝不可能永远延续下去,反对者必有言中的时候。正如常在河边走总会要湿鞋,夜路走多了一定碰见鬼,当这种非理性的行为把科学技术一步一步推向更高的层级,只要我们碰上一次“鬼”,人类的路也就走到了尽头。
事实上,科学技术的发展实在太快了,而人们对不断涌现出的科学技术成果则变得越来越麻木。19世纪初当照相技术发明时,照一张相要在阳光下一动不动地坐上几个小时,即使这样,新奇的人们还愿意试一试。X射线刚发现时,人们奇怪万分,谁都想通过X射线看一看自己的身体内部结构,包括王公贵族也是如此。当电灯还处在试验阶段时,就已经把那些记者惊得目瞪口呆。然而,如今几乎任何一个创造发明都再难以引起人们的惊奇与轰动了。
对发展麻木必然导致对危机麻木,当人们对一切科学技术成果都不加思索、理所当然地接受之时,也必然会对科学技术成果的负面作用表现出麻木不仁。然而灾难总源于麻木,在滔天巨浪到来之前,海面通常非常平静,但暗流却在海底涌动,当全社会都已麻木不仁之时,一场灭绝性的灾难说不定就在前面不远。
遗憾的是,人类对于自己的处境还蒙在鼓里,对科学技术极其巨大的毁灭力认识远远不足,甚至连最杰出的政治家和科学家都没有对此产生足够的重视,至于采取实质性的防范措施更是一件极其遥远的事。人类的精英们更多是安于对科学给人类带来的各种成果的享受,而对科学带给人类的各种危害所采取的措施只是头痛医头、脚痛医脚,至于科学一定会给人类造成灭绝性灾难,任何最有权力的领袖们都还没有实质性的觉悟。
其实,科学技术防不胜防了!
以上的道理也许我最终不能说服我的台长朋友,但今天已经有像牛津大学人类未来研究院这样的权威研究机构得出了和我完全一致的结论,我已经看到了一丝未来的曙光,我相信更多的人会关注这一事关人类生死存亡的问题—只要多数人普遍认同上述观点,未来我们就会找到解决的办法。
也许博斯特罗姆院长不会接受我的邀请,但我还是会把他和他的研究院当成知音,因为我们有着对人类命运共同的关切。