主页 / 社会 > 军事 > 正文

曝欧盟将研发AI机器人杀手 可独立作战

2018-05-26 02:55:02   来源:科技生活在线   评论:0   [收藏]   [评论]
导读:小编按:知情人士称,议会曾试图阻止欧盟对这些武器的资助,但在22日的会谈中达成了妥协。欧洲防务基金的成立旨在提升欧盟的军事实力,最终发展独立于美国的军事自主能力。

  环球网据英国《每日邮报》5月24日报道,欧盟可能将投入4.4亿英镑(约合人民币37.6亿)研发机器人杀手,这种机器人可以在没有人类的协助下作战。

  机器人杀手的官方命名为致命性自主武器(LAWs),在没有人类参与的情况下,机器人能够利用人工智能瞄准并杀死敌人。尽管欧洲议会成员试图阻止对致命性自主武器的资助,布鲁塞尔方面仍决定通过欧洲防务基金为这款充满争议的机器人融资。知情人士称,议会曾试图阻止欧盟对这些武器的资助,但在22日的会谈中达成了妥协。欧洲防务基金的成立旨在提升欧盟的军事实力,最终发展独立于美国的军事自主能力。

  在2月份通过的一项修正案中,欧洲议会成员表示,防护基金不应用于资助大规模杀伤性武器、杀伤人员地雷、集束弹药或像致命性自主武器这样的完全自主武器。知情人士称,本周会议后,该修正案被理事会要求废止。相反,建立防护基金的拟议条例现在指出,只有在他们的武器“被国际法禁止”的情况下,它所支持的项目才不具资格。

  在一份声明中,三位欧洲议员警告说,致命性自主武器对“人类的未来”构成风险。他们说:“致命性自主武器武器系统会自行作出致命的决定,这将消除人类对战场的责任。”“如果广泛传播,这将是发明核武器以来最大规模的军事技术飞跃,给国际和平和人类的未来带来关乎生死的风险。”“重要专家认为,国际上应在致命性自主武器普及之前予以禁止。”

  去年,包括亿万富翁特斯拉创始人埃隆o马斯克在内的116位业内专家组发表了一封公开信,呼吁全球禁止自动机器人。他们警告说:“我们没有太多的行动时间。一旦这个潘多拉盒子被打开,将很难关上。”
 

  链接+

  谁来给觉醒前的机器人念伦理紧箍咒

  《西部世界》充满魔幻的科技反乌托邦前景所折射出的文明焦虑可追溯至基督教之前就已产生的诺斯替主义。

  烧脑神剧《西部世界》第二季震撼来袭,人造人觉醒后的暴动使人类的脆弱暴露无遗,而人造人自身亦被散布于世界的各种控制的脚本和欲望的陷阱所网罗。

  集生化人与机器人于一体的人造人,不仅像人类那样具有自我意识,而且还能够把活人的思维、意识、记忆和情感移植进去,成为所谓的转生人。不论这些真假莫辨的剧情是否在以预言的方式昭示着新人类文明的未来,人们已经着手埋下另一条时间线——用伦理的紧箍咒哪怕在机器人觉醒之前一刹那勒紧价值的缰绳。

  机器人造反?还早着呢

  其实,不论是《罗素姆万能机器人》与《机器管家》,还是《银翼杀手》或《机器姬》,都不是对人工智能或机器人研究路线图的描绘,而主要体现了人们将人工智能与人工生命的制造和人类未来联系在一起时的选择焦虑。

  尤其是《西部世界》的场景完全建立在绝对权力和极度欲望之上,是以恶为目的设计出的具象化的魔鬼乐园,其殖民主义式的末世妄想决非人与科技应有的融合之道。

  当然,《西部世界》充满魔幻的科技反乌托邦前景所折射出的文明焦虑可追溯至基督教之前就已产生的诺斯替主义。其核心思想是:世界并非源于神的完美创造,而出自某个篡位的恶魔之手,人类恐怕只是这个低劣的制造者的玩物,宇宙及其秩序不过是邪恶之昭彰。

  其追随者据此认定,人类是被困在物质世界里意识的火花,所幸知识可以帮人获得自由。在1929年出版的《世界、众生和恶魔:理性灵魂三大敌人的未来之探索》一书中,英国晶体学家与科学社会学家贝尔纳提出了诺斯替思想的现代版本:科学将让进化发生转折,人不仅可通过外科手术成为具有机械身体的赛博格,甚至有办法让人类的心灵最终逃脱物质的束缚。库兹韦尔的灵魂机器和奇点观显然与此一脉相承。

  反观《西部世界》,德洛丽丝等人造人的自我觉醒与反叛,或许恰好受了诺斯替主义的启示而发现,像诺斯替主义者质疑人和世界可能源于低劣制造那样,貌似仁慈上帝的福特原本是无异于冷酷无情的恶魔。福特与《美丽的新世界》中的上帝重名则表明,其“创造一切”的神力来自尚在试验和探索中的科技,但为了“掌控一切”,他只能让人和人造人服从其拙劣的制造魔法和机器逻辑,加之对奴役和杀戮的崇拜,最后必然以失控甚至毁灭告终。

  至于福特的魔法,无疑具有鲜明的现代版诺斯替色彩,不只涉及智能的程序化设计,更试图操纵与控制记忆、认知、情感和意识等心智过程。

  造反还没造,伦理规则已先行

  鉴于制造是尝试性和不完美的,最令以奴役人造人为宗旨的魔法实施者心虚的莫过于人造人造反。近年来,有些学者提出了机器道德的构想,试图通过程序和算法使智能机器像人一样遵守伦理规范、具有道德认知能力,已有人将这种研究应用到自动驾驶汽车和陪伴机器人的设计上。

  尤其是随着人工智能和机器人的新一轮热潮的兴起,世界上很多国家、地区和机构相继推出了伦理指南、标准和宣言,提出了有针对性的伦理原则。当然,目前人工智能和机器人还远不具备自我意识和道德自觉,让它们明辨是非的设想一时还难以照进现实。

  相关各方已经意识到,人工智能与机器人伦理原则与标准的制定实际上是在抢占未来产业发展的制高点。IEEE(国际电气电子工程师学会)于2017年底发布《人工智能设计的伦理准则》(第二版)提出,人工智能的设计、开发和应用应遵循人权、福祉、问责、透明和慎用等伦理原则,仔细探讨了自动系统的透明性、数据隐私、算法偏见、数据治理等当前备受关注的伦理问题。

  今年3月,欧盟发表的《人工智能、机器人与自动系统宣言》则强调了人类尊严,自主,负责,公正、平等与团结,民主、守法与问责,保密、安全与身心完整,数据保护与隐私等九大伦理原则。

  国内的相关研究也在紧锣密鼓地展开。中科院于2017年下半年启动了咨询项目“人工智能伦理研究”及“大数据伦理问题与社会治理”,中国标准化委员会目前正在组织实施中国机器人伦理标准和人工智能的法律及社会伦理标准的研究。

  其中,北大哲学系在今年3月颁布的《中国机器人标准化白皮书》立足多元、植入、正义和繁荣等优化共生框架,提出了人的尊严与人权、责任、透明度、避免滥用以及共生繁荣等五大伦理目标。

  在机器人觉醒之前,人类给机器人、更确切地说是给自己,念起了这些伦理的紧箍咒。这不是诺斯替魔法预先编制的程序,而是在我们尚有选择的自由时,为人类的权利与尊严抵挡人类注定拙劣制造的戕害撑起雅典娜之盾。(段伟文 科技哲学学者)

分享到:
责任编辑:admin

网友评论

全站最新