论文部分内容阅读
几个月前,有媒体爆出,科技巨头谷歌参与了美国军方的人工智能(AI)军事项目,鉴于应用 AI 的道德标准尚未形成国际共识,此行为招来了谷歌内部员工和外界舆论的非议。最终,谷歌迫于压力,不得不宣布在为期 18 个月的合约结束之后停止续约。然而,谷歌的退出似乎并不影响五角大楼的 AI 军事计划的进行。
有匿名的美国官员向媒体透露,美国军方十分看好 AI 技术在军事领域的应用,已经启动了多个 AI 军事项目。其中一项鲜为人知的项目是,利用 AI 寻找核导弹发射器的位置,以及预测核导弹的发射。系统的侦测范围覆盖朝鲜等国家和地区,目的是更好地保护美国免受潜在的核导弹袭击。
研发中的AI系统将最终实现自主思考,以远超人类的速度和准确度搜寻大量数据,例如卫星图像,之后根据这些数据寻找导弹准备发射的迹象。一旦有所发现,美国军方将收到早期预警,这增加了摧毁或拦截导弹的成功率,同时政府也可以更早地开展外交手段,从根本上避免导弹发射。
目前这一项目还在起步阶段,不过导弹发射器追踪系统的早期原型已经投入试验。除了军方手中的数据,研发人员还与商业公司合作,以获得更多的数据和行为模式,其中包括看穿风暴和树林的雷达数据。
该项目只不过是 AI 军事计划的冰山一角。熟悉计划的消息人士透露称,谷歌参与的 Maven 项目是训练 AI 识别无人机录像中的物体。还有专门针对朝鲜的试点项目,因为美国军方怀疑导弹发射装置被隐藏在了隧道、森林和洞穴中。
AI軍备竞赛
美国众议院武装部队委员会主席 Mac Thornberry 表示,“俄罗斯和中国肯定是在追求类似的东西,可能在某些方面比我们付出的努力更多。”
从美国官方预算数据中不难发现,美国政府不仅增加了国防预算,同时也加大了对AI军事化应用的投资。特朗普政府为一项 AI 导弹项目投入了 8300 万美元,这是去年项目预算的三倍。
AI 导弹项目的一部分预计在 2020 年之后实现。不过即便如此,一些美国官员表示,面对日趋复杂的国际环境,包括朝鲜的核武器威胁和俄罗斯强大的军事力量,AI 技术在军事项目上的整体投资仍然不足,研究仍然有限。
“我们不能犯错”
虽然AI技术正在迅速发展,但是它依然存在不少的缺陷和漏洞。美国国防部高级研究计划局(DARPA)主任 Steven Walker 表示,“智能化进程势不可挡,但我们不能犯错,因为这些系统可以被欺骗。”
MIT 的一项研究结果显示,AI物品识别系统可以被轻易地欺骗,比如系统会将塑料海龟识别成步枪。
这种荒谬的错误证明了现阶段 AI 技术和人类认知之间的差距,同时也提醒了研究人员,面对核武器识别系统,其他国家完全可以利用技术隐藏武器的身份和信息。更可怕的是,如果系统错误地将“海龟”识别为核武器,那么可能会就此引发一场外交争端,甚者是核战争。
不过五角大楼认为这种错误是可以避免的。“一旦AI系统全面投入使用,五角大楼需要建立保障措施,”美国空军将军 John Hyten 表示。“以确保核决策最终由人类控制和决定,而不是机器。”
这听起来就像其他所有由人类控制的武器一样,可是人类犯的错还少吗?
(摘自美《深科技》(编辑/华生)
有匿名的美国官员向媒体透露,美国军方十分看好 AI 技术在军事领域的应用,已经启动了多个 AI 军事项目。其中一项鲜为人知的项目是,利用 AI 寻找核导弹发射器的位置,以及预测核导弹的发射。系统的侦测范围覆盖朝鲜等国家和地区,目的是更好地保护美国免受潜在的核导弹袭击。
研发中的AI系统将最终实现自主思考,以远超人类的速度和准确度搜寻大量数据,例如卫星图像,之后根据这些数据寻找导弹准备发射的迹象。一旦有所发现,美国军方将收到早期预警,这增加了摧毁或拦截导弹的成功率,同时政府也可以更早地开展外交手段,从根本上避免导弹发射。
目前这一项目还在起步阶段,不过导弹发射器追踪系统的早期原型已经投入试验。除了军方手中的数据,研发人员还与商业公司合作,以获得更多的数据和行为模式,其中包括看穿风暴和树林的雷达数据。
该项目只不过是 AI 军事计划的冰山一角。熟悉计划的消息人士透露称,谷歌参与的 Maven 项目是训练 AI 识别无人机录像中的物体。还有专门针对朝鲜的试点项目,因为美国军方怀疑导弹发射装置被隐藏在了隧道、森林和洞穴中。
AI軍备竞赛
美国众议院武装部队委员会主席 Mac Thornberry 表示,“俄罗斯和中国肯定是在追求类似的东西,可能在某些方面比我们付出的努力更多。”
从美国官方预算数据中不难发现,美国政府不仅增加了国防预算,同时也加大了对AI军事化应用的投资。特朗普政府为一项 AI 导弹项目投入了 8300 万美元,这是去年项目预算的三倍。
AI 导弹项目的一部分预计在 2020 年之后实现。不过即便如此,一些美国官员表示,面对日趋复杂的国际环境,包括朝鲜的核武器威胁和俄罗斯强大的军事力量,AI 技术在军事项目上的整体投资仍然不足,研究仍然有限。
“我们不能犯错”
虽然AI技术正在迅速发展,但是它依然存在不少的缺陷和漏洞。美国国防部高级研究计划局(DARPA)主任 Steven Walker 表示,“智能化进程势不可挡,但我们不能犯错,因为这些系统可以被欺骗。”
MIT 的一项研究结果显示,AI物品识别系统可以被轻易地欺骗,比如系统会将塑料海龟识别成步枪。
这种荒谬的错误证明了现阶段 AI 技术和人类认知之间的差距,同时也提醒了研究人员,面对核武器识别系统,其他国家完全可以利用技术隐藏武器的身份和信息。更可怕的是,如果系统错误地将“海龟”识别为核武器,那么可能会就此引发一场外交争端,甚者是核战争。
不过五角大楼认为这种错误是可以避免的。“一旦AI系统全面投入使用,五角大楼需要建立保障措施,”美国空军将军 John Hyten 表示。“以确保核决策最终由人类控制和决定,而不是机器。”
这听起来就像其他所有由人类控制的武器一样,可是人类犯的错还少吗?
(摘自美《深科技》(编辑/华生)