A04:专栏
 
前一天  后一天

数字版首页 > 第A04:专栏
上一篇

我们为何该对“杀手机器人”说不

2018年04月10日 星期二 新京报
分享:

  彬彬有理

  禁止自主武器的开发,事实上并不妨碍人工智能技术的发展,也不妨碍其被正常用于军事领域,其中的关键就在于,人类是否拥有控制权。

  联合国《特定常规武器公约》政府专家小组4月9日在瑞士日内瓦召开会议,预定讨论致命自主武器系统研发,也就是常说的“杀手机器人”可能带来的影响。

  此前的4月4日,全球超过50名人工智能研究人员联名抵制韩国科学技术院与韩国顶尖财团合作开设的人工智能武器试验室。原因在于该机构试图研发自主武器。

  在上述事件中所涉及的AI武器,均是针对自主武器(autonomous weapons),而非简单的智能武器,或是自动化武器(automatic weapons)。

  自主武器并不等于智能武器,也不等于自动化武器。后两者在现在就已经存在,比如自动瞄准装置、导弹定位系统、无人机等等。但无论是哪种武器,其最终决定权都在人类手中。

  而自主武器,属于通常所说的强人工智能范围,它把武器是否对人类进行毁灭性打击行为的决策权交给机器。这无疑是十分危险的做法。它所造成的结果,必然是毫无道德、伦理限制的杀人机器四处横行,而人类将对此束手无策。一旦打开了这个潘多拉魔盒,人类存在将面临被彻底消灭的可能。这也是为何当前主流的人工智能研究,都不主张让机器拥有自主意识。

  而对于智能武器之类的技术研发,却可能有益于人类,有益于军事发展。比如扫雷机器人,它可以代替人类执行危险的扫雷任务。这与自主武器这种机器杀手,有着天壤之别。换句话说,禁止自主武器的开发,事实上并不妨碍人工智能技术的发展,也不妨碍其被正常用于军事领域,其中的关键就在于,人类是否拥有控制权。

  从这个角度上说,这也是人类发展任何形态科技所应恪守的底线,即避免科技进步的同时带来人类无法控制的后果。

  以人工智能为例,当前已经出现过一些类似的“失控”事件,涉及种族歧视、性别歧视等。比如微软的聊天机器人Tay曾在Twitter上发表涉及种族歧视的言论,导致其上线一天就被迫关闭。背后的原因在于被污染的数据未能进行剔除,导致机器智能的失控。

  对于自主武器也是如此,在当前并不能永远排除自主武器出现的可能之时,一个可接受的方式是设置相应的约束协议,最大可能地防止这种可能的出现或使用。正如联合国已经较为成功地禁止了生化武器、致盲激光武器的使用一样。

  总之,在任何技术进步面前,人类始终要回答一个问题,即人类作为一个整体是否具备足够的智慧来应对技术创新带来的希望和危险。当人类社会越来越由技术所主导或推动时,今天的人类为其付出多少努力,注入多少价值观,将决定未来人类社会的最终面貌。

  □郑伟彬(互联网从业者)

更多详细新闻请浏览新京报网 www.bjnews.com.cn