论文部分内容阅读
AlphaGo 4∶1战胜李世石让人工智能热迅速向大众层面蔓延。的确,这场比赛说明,随着计算能力的爆发式增长,人工智能又上了一个新台阶。
但在大家而欢呼雀跃的时候,有些人一直对人工智能表示深深的担忧,并且对大家提出警告。这些人包括:霍金、比尔·盖茨,马斯克为什么这些世界上最聪明的人会如此担忧?
他山之石,可以攻玉。本文想比照金融市场的“反身性理论”(Theory Of Reflexivity),来看看人工智能如何影响人类发展。索罗斯是一位众所周知的金融大鳄,他曾经多次抓住市场巨大波动的机会获得巨额财富。索罗斯的核心投资理论就是“反身性理论”。
根据百度百科,所谓反身性理论,就是在政治、经济领域存在自我加强现象,自我加强到最后,会以快速调整结束。反身性理论对于金融市场的直接指导意义在于,能够让你更了解市场变化的曲线,在走向繁荣或崩溃的情况下争取获利。反身性理论的提出和最成功的执行者就是量子基金的创始人索罗斯。
简单地说,反身性理论的本质就是中国的古语“物极必反”。在股市里,股民的购买能够推动股价的上升,反过来股价上升的赚钱效应也会吸引更多股民购买股票。在牛市时,这两种行为形成股价的正反馈加强,当这种正反馈被极度放大时,股价远远脱离了基本面,这时一个偶然事件就可能导致股市崩盘。回顾中外股市历史上的大崩盘,其过程莫不是如此。
对比来看,人类的发展和科技的进步也正是一组正反馈:科技的进步使人们懂得更多,懂得更多的人类推动科技更快地发展。人类从狩猎时代到农业时代,用了十几万年;从农业时代到工业时代用了几千年;从工业时代到原子时代,只用了二百年;从原子时代到信息时代,只用了几十年。想想看,现在寻常百姓手中智能手机的计算能力,竟然超越了1969年NASA登月时所拥有的计算能力的总和!
在这个越来越快的正反馈加速度过程中,人类会有hold不住的那一天吗?我能想到两个场景(实际场景肯定更多):
1)当拥有可以毁灭地球能力的门槛足够低时,少数人的疯狂或一时冲动就可以触发灭亡。在科技的加速发展中,这个场景正变得越来越现实。比如,以前只有中美俄这样的大国才能制造原子弹,现在连朝鲜这样贫瘠且被封锁的小国竟然也能制造了。
2)在向更高科技水平探索的过程中,因为无知而无意中触发了引发灾难的开关。例如,大型强子对撞机的实验会不会产生人造黑洞?
可能绝大多数人看到这里,都会觉得上面的假设是杞人忧天,这种感觉与牛市中股民对股市崩盘预言的态度其实并无二致。然而,从反身性理论看,持续的正反馈加强最终一定会带来灾难。而且,由于我们在指数式的加速发展,而人类对未来的预测往往是线性的,这一天的到来也许比大家想的还要早。
这里顺便插一句,为什么我们到现在还没有发现外星文明?我有一个解释:因为宇宙中的文明普遍具有指数式加速发展的特性,所以文明往往都是短暂的,就像一颗流星一样一闪而过。例如,人类能够探索太空的历史到目前为止才不过几十年,即使从地球的历史长度来看,这都太短暂了。整个宇宙中无疑存在过很多文明,但是它们往往像一颗颗流星。要想让两颗流星正好碰到一起,实在太不容易了。
那么,我们该怎么办呢?坦率地讲,我不觉得我们可以避免最后的终点,但是也许我们可以推迟这个终点。我比较认同霍金、盖茨、马斯克他们给出的建议:
1)对于已经可以预见到灾难的科技,要及早控制它的发展。例如,他们建议,禁止人工智能武器的法令必须尽快颁布。
2)向外星移民。为危机来临时的人类的生存提供更多机会。
最后的建议:珍惜当下。
作者为她社区CEO,原谷歌技术总监
但在大家而欢呼雀跃的时候,有些人一直对人工智能表示深深的担忧,并且对大家提出警告。这些人包括:霍金、比尔·盖茨,马斯克为什么这些世界上最聪明的人会如此担忧?
他山之石,可以攻玉。本文想比照金融市场的“反身性理论”(Theory Of Reflexivity),来看看人工智能如何影响人类发展。索罗斯是一位众所周知的金融大鳄,他曾经多次抓住市场巨大波动的机会获得巨额财富。索罗斯的核心投资理论就是“反身性理论”。
根据百度百科,所谓反身性理论,就是在政治、经济领域存在自我加强现象,自我加强到最后,会以快速调整结束。反身性理论对于金融市场的直接指导意义在于,能够让你更了解市场变化的曲线,在走向繁荣或崩溃的情况下争取获利。反身性理论的提出和最成功的执行者就是量子基金的创始人索罗斯。
简单地说,反身性理论的本质就是中国的古语“物极必反”。在股市里,股民的购买能够推动股价的上升,反过来股价上升的赚钱效应也会吸引更多股民购买股票。在牛市时,这两种行为形成股价的正反馈加强,当这种正反馈被极度放大时,股价远远脱离了基本面,这时一个偶然事件就可能导致股市崩盘。回顾中外股市历史上的大崩盘,其过程莫不是如此。
对比来看,人类的发展和科技的进步也正是一组正反馈:科技的进步使人们懂得更多,懂得更多的人类推动科技更快地发展。人类从狩猎时代到农业时代,用了十几万年;从农业时代到工业时代用了几千年;从工业时代到原子时代,只用了二百年;从原子时代到信息时代,只用了几十年。想想看,现在寻常百姓手中智能手机的计算能力,竟然超越了1969年NASA登月时所拥有的计算能力的总和!
在这个越来越快的正反馈加速度过程中,人类会有hold不住的那一天吗?我能想到两个场景(实际场景肯定更多):
1)当拥有可以毁灭地球能力的门槛足够低时,少数人的疯狂或一时冲动就可以触发灭亡。在科技的加速发展中,这个场景正变得越来越现实。比如,以前只有中美俄这样的大国才能制造原子弹,现在连朝鲜这样贫瘠且被封锁的小国竟然也能制造了。
2)在向更高科技水平探索的过程中,因为无知而无意中触发了引发灾难的开关。例如,大型强子对撞机的实验会不会产生人造黑洞?
可能绝大多数人看到这里,都会觉得上面的假设是杞人忧天,这种感觉与牛市中股民对股市崩盘预言的态度其实并无二致。然而,从反身性理论看,持续的正反馈加强最终一定会带来灾难。而且,由于我们在指数式的加速发展,而人类对未来的预测往往是线性的,这一天的到来也许比大家想的还要早。
这里顺便插一句,为什么我们到现在还没有发现外星文明?我有一个解释:因为宇宙中的文明普遍具有指数式加速发展的特性,所以文明往往都是短暂的,就像一颗流星一样一闪而过。例如,人类能够探索太空的历史到目前为止才不过几十年,即使从地球的历史长度来看,这都太短暂了。整个宇宙中无疑存在过很多文明,但是它们往往像一颗颗流星。要想让两颗流星正好碰到一起,实在太不容易了。
那么,我们该怎么办呢?坦率地讲,我不觉得我们可以避免最后的终点,但是也许我们可以推迟这个终点。我比较认同霍金、盖茨、马斯克他们给出的建议:
1)对于已经可以预见到灾难的科技,要及早控制它的发展。例如,他们建议,禁止人工智能武器的法令必须尽快颁布。
2)向外星移民。为危机来临时的人类的生存提供更多机会。
最后的建议:珍惜当下。
作者为她社区CEO,原谷歌技术总监