主页 / 社会 > 军事 > 正文

曝五角大楼AI武器研发计划 拟投资20亿美元

2018-09-09 02:14:54   来源:科技生活在线   评论:0   [收藏]   [评论]
导读:小编按:报告称,“虽然指挥官明白,技术上人工智能系统已经能够自主选择目标并发射武器,并且可以协助战斗更有组织,获得更快、更准确的信息,但他们也表达了慎重和担忧。”

  美国科技媒体The Verge近日报道了五角大楼的一项新计划,其将斥资20亿美元研发人工智能型武器,根据原文编译如下:

  美国国防部高级研究计划局(DARPA)主任 Steven Walker 今日在华盛顿的一项会议中宣布,五角大楼计划斥资 20 亿美元,研发人工智能型武器。

  DARPA 的主要作用是,推动军事问题的新技术解决方案。据悉,特朗普政府的技术负责人也强烈支持将人工智能注入更多的美国武器中。

  20 亿美元的投入,算很多吗?根据五角大楼的支出标准,DARPA 的经费额度其实很小,购买和维护新型 F-35 战机的成本,预计都将超过一万亿美元。但它的确是美国军方投入人工智能项目金额最大的一笔开支了。

  但也有另一种声音,「新美国安全中心智库」助理研究员格 Gregory Allen 在接受《华盛顿邮报》采访时说,“这是一笔巨大的交易,同时也是第一个迹象,表明美国正在投入研发先进的人工智能技术,其规模、资金和严肃程度都达到了前所未有的程度。”

  美国军方对人工智能的投入是持续的,我们可以关注到,今年7月,国防承包商 Booz Allen Hamilton 获得了 8.85 亿美元的合同,同样是用于在未来五年内开展人工智能计划。而军事人工智能项目 Maven 预计将在 2019 年获得 9300 万美元的投资,该项目旨在提高「计算机识别图片」中「用于军事用途的物体」的能力。

  对于人工智能与武器的结合,历来存有争议。

  比如,将更多的军事分析工作——以及可能的一些关键决策——移交给安装在能够对人类进行暴力行动的武器上的计算机和算法。此前谷歌曾一直领导 Maven 项目,但有谷歌员工抗议,他们不想为军队制造以杀人目标的软件,该公司6月份表示,在当前合同到期后将停止这项工作。

  虽然 Maven 和其他人工智能计划,会帮助武器系统更好地识别目标、更有效地驾驶无人机,但是目前为止,官方还没有批准采用「自主采取致命行动」的计算机驱动系统。此外,五角大楼八月份发布战略文件称,随着研发进度,这种技术将很快可以实现。

  指挥官们一直在犹豫,是否放弃对武器平台的控制。

  报告称,“虽然指挥官明白,技术上人工智能系统已经能够自主选择目标并发射武器,并且可以协助战斗更有组织,获得更快、更准确的信息,但他们也表达了慎重和担忧。”

  部分原因是对机器推理缺乏信心,特别是在战场上,变量、突发情况随时可能出现,而这些情况,是机器设计师们从来没有经历过的。(36氪)
 

  链接+

  美俄坚决反对!联合国全面禁止AI自主武器正式谈判无果而终!

  新智元导读:由于美俄等大国的阻挠,联合国日内瓦会议未能就全面禁止AI驱动的“完全自主武器”举行正式谈判,会议只达成了一系列非约束性的文件,目前,全面禁止AI杀人武器仍然任重而道远。

  日前,在为期一周的日内瓦首脑会议上,联合国常规武器公约(CCW)的一个小组讨论了是否就AI驱动的完全自主武器问题展开正式谈判,制定一个禁止AI驱动的完全自主武器的条约。

  但是,最终参与国只是达成了一系列非约束性建议,对是否继续进行正式谈判的问题避而不谈。

  “阻止杀手机器人运动”协调员Mary Wareham表示,反对将该问题付诸正式谈判的主要国家包括俄罗斯,美国,韩国,以色列和澳大利亚等国。

  “这当然是令人失望的,少数大型军事强国就可以阻碍多数人的意志。”她说。

  Mary Wareham所在团体代表了32个国家的75个非政府组织,他们正在争取禁止完全使用人工智能技术确定攻击目标的武器。该组织表示,现在有26个国家支持全面禁止这些武器,理由是其违反了人权标准。

  在整个会议期间,有许多国家再次呼吁对此加强监管,推动联合国明年开始正式谈判。

  这样做将成为约束国际规则的下一步,但禁令的反对者坚定不移。会议结束时发表的文件中只是建议继续进行非约束性的会谈。

  “现在看来,任何一个国家都可以阻碍任何进展,目前情况就是如此。”韦勒姆说。

  世界各地的军队和武器制造商正在对AI驱动的“杀手机器人”展开测试,这种机器人很快就能以低成本的优势超越现有的部分军事技术。

  2013年底,联合国将该议题列入议程,但此后几乎没有什么进展。联合国各国甚至无法就“完全自主致命武器”的定义达成一致意见。与此同时,专家表示,各国在谈判桌上的立场变得更加强硬了。

  慕尼黑联邦国防军大学的自动武器专家Frank Sauer说:“在这个问题上,持不同立场的各国之间的分歧越来越大,从本周的谈判中就能看出这一点。”

  各国计划于11月在日内瓦再次举行会议继续讨论这一问题。

  马斯克、哈萨比斯等2000多学者签署宣言:决不允许杀人机器人出现!

  不过,与联合国的政治家们对此事的暧昧态度相比,AI领域的科学家和企业家们的态度则鲜明得多:决不允许“杀人机器人”出现!

  今年7月,来自数百家公司的2000多名科学家,其中许多是机器人和人工智能领域的著名的研究人员和工程师,联名签署宣言,誓言绝不将他们的技能用于开发自主杀人机器。新智元对此曾做了详尽报道:点击阅读

  这场宣誓行动由总部位于波士顿的非盈利组织未来生命研究所(Future of Life Institute)发起,来自36个国家的多达160个人工智能相关的公司、覆盖90个国家的2400名个人签署了宣言,他们承诺:

  在世界上的任何一个国家,自主武器都对公民构成了“明显而现实的危险”,他们“绝不参与自主武器的开发”。

  签署之一承诺的著名人士还包括顶尖的人工智能研究人员Demis Hassabis、Stuart Russell、Yoshua Bengio、Anca Dragan、Toby Walsh以及特斯拉和SpaceX的创始人伊隆·马斯克。

  这场宣誓行动由泰格马克创办的未来生命研究所发起。今年9月20日,新智元AI WORLD 2018大会有幸邀请到泰格马克教授作为演讲嘉宾,他将带来对AI和生命的最新观点,相信也定将给中国产业界带来极大启发,让更多中国人思考自己的命运,思考这个世界未来的命运。

  国内学者也曾参与禁止研发自主武器,周志华展望中国AI原生创新和重大理论突破方向

  AI界对全自主武器的担忧一直存在。今年4月,Hinton、Bengio、Jürgen Schmidhuber、Stuart Russell等50多名学者联名向韩国KAIST发出公开信:停止研发全自主武器!

  其中,南京大学的周志华教授作为发起人邀请的唯一来自中国大陆的学者,也签署了这封公开信。

分享到:
责任编辑:admin

网友评论