论文部分内容阅读
无人驾驶车业已驶上加利福尼亚的公路,现在言及如何让机器的行为符合伦理为时已不算太早。超级智能或许离我们太遥远,但是,我们可以开始考虑如何让人工智能符合人类、
乃至所有有感情的生物的利益了。
上个月,一款专门被设计用于下围棋的电脑程序“阿尔法狗”(AlphaGo)以4:1击败世界顶尖职业围棋选手李世石,在围棋爱好者群体中引发轰动。
你可能会问,这算是新闻吗?早在二十年前,IBM的电脑“深蓝”(Deep Blue)就曾打败过国际象棋世界冠军加里·卡斯帕罗夫;且众所周知,自那以后技术一直在进步。但是,“深蓝”获胜纯因计算能力,它能比世界冠军计算出更多步棋。相比8×8格的国际象棋,围棋的棋盘更复杂,为19×19格,围棋可能的走法要超过宇宙中的原子数,因此,单凭强大的计算能力不太可能打败对最佳走法有着强烈直觉的人类。
“阿尔法狗”的胜利之道,在于同其他程序进行海量对弈,并采纳被证明成功的战略。因而可以说,“阿尔法狗”进化为全世界最优秀的围棋选手只用了两年,而人类的大脑在自然过程中完成这样的进化,可能需要数百万年的时间。
“阿尔法狗”的主人、谷歌公司执行董事长埃里克·施密特(Eric Schmidt)热衷于人工智能(AI)。他在人机大战之前表示,无论结果如何,人类必将是赢家,因为人工智能的进步会令每个人更聪明、能力更强,“只会让人类更美好”。
果真如此吗?就在“阿尔法狗”凯旋的同时,微软的“聊天机器人”泰勒(Taylor)却尝到了苦头。这款自称“Tay”的机器人的用途是与18~24岁的年轻人互动。Tay可以从接收到的信息中学习,并逐步提高对话能力。不幸的是,上线不到一天,就有人“教导”Tay有关种族主义和性别歧视的观点。当她开始赞扬希特勒时,微软不得不将其关闭,并删掉了其大部分攻击性的言论。
我不知道那些将Tay教成种族主义者的人自己是否是种族主义者,抑或他们只是认为玩坏微软的新产品是饶有趣味的事。但不管怎样,“阿尔法狗”的胜利与Tay的失败同样令人类警醒。在有着特定规则和明确目标的游戏中释放人工智能的潜能是一回事,而把人工智能投入真实世界则是另一回事——两者截然不同,环境的不可预知性可能暴露软件漏洞,引发灾难性后果。
牛津大学人类未来研究所所长尼克·波斯特洛姆(Nick Bostrom)在其著作《超级智能》(Super intelligence)中指出,关闭一个智能机器并不总是像关闭Tay那样轻而易举。他将“超级智能”定义为“几乎在任何领域都超越人类最聪明大脑的智能,包括科学创造力、整体智慧和社交能力”。这样的系统也许能挫败我们关闭它的企图。
有人质疑超级智能会不会实现。对此,波斯特洛姆 和文森特·穆勒(Vincent Müller)一起咨询了人工智能专家,问机器智力何时能有50%的可能达到人类水平,以及何时有90%的几率达到人类水平。估计的中位数显示,50%的可能性在2045~2050年达成,90%的可能性在2075年达成。大部分专家都预计,达到人类智能后不到30年,人工智能就会发展到超级智能水平。
我们不应对这些估计太较真,因为专家总体的回复率只有31%,而且这一领域的研究者们往往想通过拔高人工智能的潜力来提高自己所在领域的重要性。
超级智能或许离我们太遥远,尤其是在我们还面临更紧迫的问题时更是如此。但是,我们可以开始考虑如何让人工智能符合人类、乃至所有有感情的生物的利益。
无人驾驶车业已驶上加利福尼亚的公路,现在言及如何让机器的行为符合伦理为时已不算太早。随着无人驾驶车的改进,他们将拯救生命,因为他们比人类司机更少犯错误。然而,他们有时也将面临在不同的生命间做出选择。比如,他们是否应该急转弯以免撞到横穿马路的小孩,而不顾将车上乘客置于险境?前面出现小狗该怎么办?如果为了不危及乘客安全而采取的措施对车本身有损,又该怎么办?
只是在开始讨论无人驾驶汽车时,我们可能就会发现有许多功课要做。但无人车毕竟并非超级智能。可以想见,在广泛的领域向比我们还要聪明的机器讲解伦理问题,更将是极其困难的任务。
在《超级智能》一书的开头,波斯特洛姆讲了一个麻雀的寓言:这些麻雀心想,如果能培训一只猫头鹰来帮助他们筑巢和抚育雏鸟,一定很不错。于是,他们开始找猫头鹰蛋。其中一只麻雀站出来表示反对,认为应该先考虑如何驯服猫头鹰;但其他麻雀很不耐烦,迫不及待地就着手启动激动人心的新计划。他们将在成功养大一只猫头鹰后应对驯服猫头鹰的挑战,例如不让其吃掉麻雀。
如果我们想得到一只有智慧而不仅仅是智能超群的猫头鹰,那就别学那些没有耐心的麻雀们。
乃至所有有感情的生物的利益了。
上个月,一款专门被设计用于下围棋的电脑程序“阿尔法狗”(AlphaGo)以4:1击败世界顶尖职业围棋选手李世石,在围棋爱好者群体中引发轰动。
你可能会问,这算是新闻吗?早在二十年前,IBM的电脑“深蓝”(Deep Blue)就曾打败过国际象棋世界冠军加里·卡斯帕罗夫;且众所周知,自那以后技术一直在进步。但是,“深蓝”获胜纯因计算能力,它能比世界冠军计算出更多步棋。相比8×8格的国际象棋,围棋的棋盘更复杂,为19×19格,围棋可能的走法要超过宇宙中的原子数,因此,单凭强大的计算能力不太可能打败对最佳走法有着强烈直觉的人类。
“阿尔法狗”的胜利之道,在于同其他程序进行海量对弈,并采纳被证明成功的战略。因而可以说,“阿尔法狗”进化为全世界最优秀的围棋选手只用了两年,而人类的大脑在自然过程中完成这样的进化,可能需要数百万年的时间。
“阿尔法狗”的主人、谷歌公司执行董事长埃里克·施密特(Eric Schmidt)热衷于人工智能(AI)。他在人机大战之前表示,无论结果如何,人类必将是赢家,因为人工智能的进步会令每个人更聪明、能力更强,“只会让人类更美好”。
果真如此吗?就在“阿尔法狗”凯旋的同时,微软的“聊天机器人”泰勒(Taylor)却尝到了苦头。这款自称“Tay”的机器人的用途是与18~24岁的年轻人互动。Tay可以从接收到的信息中学习,并逐步提高对话能力。不幸的是,上线不到一天,就有人“教导”Tay有关种族主义和性别歧视的观点。当她开始赞扬希特勒时,微软不得不将其关闭,并删掉了其大部分攻击性的言论。
我不知道那些将Tay教成种族主义者的人自己是否是种族主义者,抑或他们只是认为玩坏微软的新产品是饶有趣味的事。但不管怎样,“阿尔法狗”的胜利与Tay的失败同样令人类警醒。在有着特定规则和明确目标的游戏中释放人工智能的潜能是一回事,而把人工智能投入真实世界则是另一回事——两者截然不同,环境的不可预知性可能暴露软件漏洞,引发灾难性后果。
牛津大学人类未来研究所所长尼克·波斯特洛姆(Nick Bostrom)在其著作《超级智能》(Super intelligence)中指出,关闭一个智能机器并不总是像关闭Tay那样轻而易举。他将“超级智能”定义为“几乎在任何领域都超越人类最聪明大脑的智能,包括科学创造力、整体智慧和社交能力”。这样的系统也许能挫败我们关闭它的企图。
有人质疑超级智能会不会实现。对此,波斯特洛姆 和文森特·穆勒(Vincent Müller)一起咨询了人工智能专家,问机器智力何时能有50%的可能达到人类水平,以及何时有90%的几率达到人类水平。估计的中位数显示,50%的可能性在2045~2050年达成,90%的可能性在2075年达成。大部分专家都预计,达到人类智能后不到30年,人工智能就会发展到超级智能水平。
我们不应对这些估计太较真,因为专家总体的回复率只有31%,而且这一领域的研究者们往往想通过拔高人工智能的潜力来提高自己所在领域的重要性。
超级智能或许离我们太遥远,尤其是在我们还面临更紧迫的问题时更是如此。但是,我们可以开始考虑如何让人工智能符合人类、乃至所有有感情的生物的利益。
无人驾驶车业已驶上加利福尼亚的公路,现在言及如何让机器的行为符合伦理为时已不算太早。随着无人驾驶车的改进,他们将拯救生命,因为他们比人类司机更少犯错误。然而,他们有时也将面临在不同的生命间做出选择。比如,他们是否应该急转弯以免撞到横穿马路的小孩,而不顾将车上乘客置于险境?前面出现小狗该怎么办?如果为了不危及乘客安全而采取的措施对车本身有损,又该怎么办?
只是在开始讨论无人驾驶汽车时,我们可能就会发现有许多功课要做。但无人车毕竟并非超级智能。可以想见,在广泛的领域向比我们还要聪明的机器讲解伦理问题,更将是极其困难的任务。
在《超级智能》一书的开头,波斯特洛姆讲了一个麻雀的寓言:这些麻雀心想,如果能培训一只猫头鹰来帮助他们筑巢和抚育雏鸟,一定很不错。于是,他们开始找猫头鹰蛋。其中一只麻雀站出来表示反对,认为应该先考虑如何驯服猫头鹰;但其他麻雀很不耐烦,迫不及待地就着手启动激动人心的新计划。他们将在成功养大一只猫头鹰后应对驯服猫头鹰的挑战,例如不让其吃掉麻雀。
如果我们想得到一只有智慧而不仅仅是智能超群的猫头鹰,那就别学那些没有耐心的麻雀们。