A04:专栏
 
前一天  后一天

数字版首页 > 第A04:专栏
上一篇

特斯拉自动驾驶“撞死”机器人,科幻时代来了?

2019年01月09日 星期三 新京报
分享:
新京报漫画/赵斌

  人机未来

  在公共利益和技术神话之间,特斯拉正站在一个难以左右平衡的边缘。

  据美国媒体报道,CES前夕,在美国拉斯韦加斯的天堂路上,一辆处于自动驾驶模式的Tesla Model S在行驶中撞倒了路边经过的一台机器人。

  这是一场极具魔幻色彩的车祸。如果用一句话概括,一台来自俄罗斯的礼宾机器人,在向展厅行走的过程中突然离队,并被美国的自动驾驶汽车撞翻在地。看起来,这像是科幻电影里才会出现的交通事故。

  围观者或许会为这起没有人员伤亡的“事故”感到好奇,但对于特斯拉和关注着自动驾驶的人来说,这更像是在CES前夕,技术向人类发出的另一种警告:面对一个智能与信息化的未来,算法和人类都准备好了吗?

  事实上,类似的警告始终都在发生。就拿特斯拉来说,近几年,其自动驾驶系统不断在全球各地出现事故。

  3年前,中国河北的一名车主就因为开启了特斯拉的自动辅助驾驶系统而发生车祸,后来特斯拉承认,系统并未识别出前方的道路清扫车,以致发生车祸。随后,美国加利福尼亚州也出现了类似事故,起因是系统没有辨别出前方白色车辆与天空的区别。

  今天,特斯拉发现自己陷入和公众在解释权的争夺中。特斯拉不断强调,汽车上的自动驾驶系统,只是一套辅助驾驶系统。开启它,并不意味着驾驶员就可以什么都不做,司机仍需时刻注意路况,随时接管方向盘。

  从自动驾驶的分类看,今天特斯拉所使用的辅助驾驶技术其实只是分类中的L2,也就是部分自动驾驶。在这一级别中,尽管汽车可以进行驾驶操作,但周遭环境监控依然要依靠人类驾驶员。

  但如此之多的事故发生,证明L2级别,是存在一些技术问题的。比如说,公众无法搞明白L2级别的自动驾驶技术中,人类驾驶员的责任在哪儿,哪些是系统无法完成的。因此,在所发生的事故中,多数司机都是在把方向盘交给系统之后,自己出现了注意力不集中的行为,而事故往往就此发生。

  这一功能的问题在于,辅助的边界是无法定义的。就算在技术和说明书上能够划分清楚,但在实际的驾驶体验之中,驾驶员必然会因为对这一功能的依赖而出现注意力涣散的行为。这是人性的弱点,也是算法无法估测的。

  事实上,2017年10月,谷歌旗下的自动驾驶部门Waymo宣布,暂停开发自动辅助驾驶功能,给出的理由正是他们发现,在实验中,人类会出现对该功能的过度依赖现象。

  作为科技和制造业的闯入者,特斯拉在早期曾依赖被神化的“自动驾驶”而博得无数喝彩。今时今日,自动辅助驾驶系统也是不少人对其“创新科技”的期待。因此,特斯拉没法像谷歌一样,潇洒地宣布弃用这一系统。而这一不完备的过渡性功能,今天又成了特斯拉的新麻烦。

  这也是很多科技公司正面临的麻烦:新的技术总有新的危险,在危险未完全排除前就广泛应用,任何一个小缺陷,都会引爆一个公共事件。

  在公共利益和技术神话之间,特斯拉正站在一个难以左右平衡的边缘。自动驾驶技术或许是不可逆的未来,但在未来到来前,我们都应当变得更慎重一些。

  □胡涵(媒体人)

更多详细新闻请浏览新京报网 www.bjnews.com.cn