A27:国际新闻·世界观
 
前一天  后一天

数字版首页 > 第A27:国际新闻·世界观

联合国讨论封杀“杀人机器人”

美、英、以、韩、日等国积极研发“杀人机器人”,人权组织要求联合国下研发禁令

2013年05月28日 星期二 新京报
分享:
海因斯报告中提及的“杀人机器人”
韩国机器人哨兵
不知疲倦紧盯朝鲜
韩国三星集团研发的SGR-1哨兵机器人,被韩国政府部署在三八线附近。SGR-1个头与3岁孩子相当,体重只有17公斤,却能昼夜不知疲倦地坚守战位;装备多种探测装备,触觉非士兵可比,能够发现几公里外的隐秘威胁。
研发工程师宋本健说,SGR-1机器人在侦测到闯入者时会发出警报,后方的机器人管理员将通过机器人盘问闯入者,并决定是否用该机器人的5.5毫米口径机枪将其射杀。韩国联合参谋本部作战处上校崔谨孝认为,机器人可以使韩国军队的战斗力增强2-4倍。
英国雷神无人机
隐形能远程打击
雷神隐形无人战斗机是英国研发的首架高科技无人驾驶隐形战机。专家指出,它采用的隐身技术可与美国最先进的技术媲美,地面雷达几乎无法追踪到雷神无人机。雷神无人机内置两个炸弹舱,能在多个目标上空投放弹药,具有远程攻击能力。
美“密集阵”武器系统
军舰最后屏障
现役唯一一种能实现自动搜索、跟踪和攻击威胁目标的近防系统。该系统于上世纪80年代初投入使用,主要装备大型战斗舰艇。“密集阵”采用了模块化设计,体积小、重量轻,其全部作战功能由计算机自动完成,反应速度极快,是美国海军舰只的最后屏障。
以色列哈比无人机
发现雷达可同归于尽
哈比反雷达无人机具有三角形机翼,采用活塞推动,火箭加力,配有红外自导弹头。
哈比无人攻击系统由哈比无人机和用于控制和运输的地面发射平台组成。一个基本火力单元由54架无人机、1辆地面控制车、3辆发射车和辅助设备组成。其特点是机动灵活,航程远,续航时间长,反雷达频段宽,智能程度高,生存能力强,可全天候使用。这种无人机能从卡车上发射,沿设计好的轨道飞向目标所在地区,在空中盘旋,可以自主攻击目标或返回基地。如测出陌生雷达,将载着32公斤高爆炸药撞向目标,与其同归于尽。

  “由于机器人没有人类的感情,它们不会理解和辨别人类的情感,诸如复仇、惊慌、愤怒、困惑、偏见或者恐惧。由于没有足够的法律问责制度,加上机器人不应该拥有决定人类生死的权力,因此部署此类武器系统可能令人无法接受。”

  ——联合国人权理事会特别调查员克里斯多夫·海因斯

  联合国人权理事会定于27日在瑞士日内瓦开会,联合国人权理事会特别调查员克里斯多夫·海因斯建议立即冻结“杀人机器人”的研发和应用,联合国成员国将就此议题成立专门委员会展开讨论。

  “杀人机器人”不断升级

  1944年,著名科幻大师阿西莫夫在机器人短篇集《我,机器人》中,首先提出了《机器人三大定律》,其中第一条就是:“机器人必须保护人类的整体利益不受伤害。”

  然而在好莱坞电影中,这一定律从未实现,从《终结者》到《变形金刚》,各种高科技机器人相互厮杀甚至杀人的场面屡见不鲜。

  联合国人权理事会特别调查员克里斯多夫·海因斯宣称,这种行为正在变成现实,各国在没有相对道德和法律约束的情况下,正在加快研制智能“杀人机器人”的步伐,这一切应被禁止。

  海因斯表示,自己作这个报告是受前段时间美国无人机在打击“基地”恐怖分子时误伤了周围贫民的事件的启发。

  海因斯在报告中指出,这种“杀人机器人”将从由人远程遥控,发展至由计算机软件和传感器装置控制,进而全自动执行识别敌人、判断敌情和杀死敌人等任务。然而,这一技术突破是非常令人担心的,因为这种机器人可能误伤已经丧失战斗力的伤员和准备投降的士兵。海因斯还表示,由于“杀人机器人”缺乏人类的情感,所以会对人类的生命造成潜在的伤害。

  操纵者对军事打击感到麻木

  海因斯警告,杀人机器人可自行作出攻击目标决定,如果将它们补充到武器库,可能会“打开更大的潘多拉魔盒”。因此,海因斯希望由联合国出面,要求各国冻结“杀人机器人”的研发实验和实际应用。

  虽然目前的武器系统背后都有人员在操控,但海因斯认为这种操作形式不可取。海因斯说:“战场上的局势瞬息万变,由于距离限制,很多情报并不会即刻反馈给后方的操控者,造成前方的武器系统判断失误。”

  同时,海因斯认为,由于无人机驾驶员并不在现场,所以对军事打击更为“麻木”。

  根据海因斯的报告,目前美国、英国、以色列、韩国和日本都在积极研发各种类型的智能或半智能“杀人机器人”。

  (韩旭阳)

  ■ 反应

  无人机颠覆现代战争

  关于“杀人机器人”,因发起国际禁止地雷运动而于1997年获得诺贝尔和平奖的美国人乔迪·威廉姆斯认为,“关于科技会完全改变战争的讨论一直在进行,当有人说这是不流血的战争时,我很愤怒。”

  国际机器人武装控制委员会主席、人工智能与机器人技术教授诺尔·夏基认为,无人机参战意味着人类迈出了颠覆现代战争的最后一步。他说,目前所有的无人机行动仍处于人类操控阶段,“现在最大的问题是,谁在制定目标,谁在下令开火。这些杀人行为是否是自动化的一部分。”

  夏基警告说,“机器人大战”给人们带来的远非科技进步的喜悦,而是忧虑。他认为,让机器人自己决定是否杀人难以保证它们不会滥杀无辜。真人士兵可以用常识判断眼前的女子是怀孕还是藏有炸弹,而机器人恐怕难以拥有这种思考能力。此外,“杀人机器人”虽有自主意识,但无法为自己的行为负责。

  夏基认为如果恐怖分子利用“杀人机器人”取代自杀式袭击,后果将不堪设想,而这也许只是时间问题。(韩旭阳)

  ■ 观察

  谈机器人大战为时尚早

  知远防务研究院研究员周晨鸣表示,关于“杀人机器人”的讨论早在2005年就已经出现,但拥有人工智能的自主机器人一段时间内还不能用于实战。周晨鸣认为,目前讨论冻结研发“杀人机器人”只是伦理层面的考虑,现实技术尚且达不到自主机器人的程度。

  周晨鸣表示,战场环境之复杂远非实验室模拟能比,所以自主机器人仍不能大规模在战场上布局。他说:“同样是可以用履带上楼的机器人,在实验室中可以安然无恙,但是实际战场上的地势复杂,还有各种爆炸,都会影响机器人的自主操作。目前在自主机器人研发上还有很多重大的技术难题,20年内不太可能实现。”

  据周晨鸣介绍,美军目前正在试验一些自主意识的无人战车,但是以美国交通部的名义在做测试。“美国自2010年就开始测试这些无人战车,主要测试的是识别号牌、遇见红绿灯自动停车再启动等,”周晨鸣说,“美国曾在阿富汗战场中试用过,但最终只能根据设定好的路线完成简单的点对点运输。无人战车神经网络的自学习周期相当的漫长,但依然不能正常准确地识别红绿灯。基本的红绿灯都无法识别,在战场上更无法判断自己的动作。”(韩旭阳)

更多详细新闻请浏览新京报网 www.bjnews.com.cn