- 2016/10/9 15:58:17
- 类型:原创
- 来源:电脑报
- 报纸编辑:电脑报
- 作者:
@王月
最近,谷歌的无人车遭遇了最惨烈的一场车祸。在加州山景城,一辆闯红灯的商务货车从侧面撞上了谷歌无人车。无人车右侧车门被撞烂,两个车窗玻璃也碎了,好的是没有任何人在车祸中受伤。
这次车祸,也成为一次典型的无人车引发的车祸事件——对于谷歌而言,在之前发生的所有事故中,无人驾驶汽车从来都不是担责的一方。
只有一次例外。那次车祸发生在今年年初。同样是在加州山景城,谷歌无人车在右道行驶时,发现前方有沙袋,于是想要减慢了速度想切到左边的车道。与此同时,后方的公交车也切到了左道,并且速度很快。无人车以为公交车会减速让它进来,而公交车司机认为它可以在无人车换道之前就开过去……于是车祸就发生了。
这次车祸与以往不同的是,这是谷歌无人车自己犯错误导致的。就连一直高傲的谷歌也不得不在公告中承认,“很明显我们需要承担一些责任,因为如果我们的车辆没有移动,那么就不会发生碰撞。”
那么,这是不是证明无人车还只是无稽之谈呢?我们还要看谷歌公告里接下来的一句话,“我们的测试司机认为,公交车将会减速或停车,让我们并线,而车道有足够的空间。”这就很有意思了。
和我们预想的不同,无人驾驶这件事,其实没有那么机械化,并不是简单的加速减速,刹车或者避让,其中多少有些人工智能的痕迹。也就是说,无人车有自己的决策依据,不过和我们所想的不太一样,如果后面那辆车也是谷歌无人车的话,这次车祸就不会发生了——后面的车将会减速,让前面的车先通过。但无人车万万没有预料到的是,像公交车司机这样一个特殊的“物种”,竟然不会主动去避让小汽车。
不过,既然发生了这样的车祸,谷歌肯定要想办法弥补这种缺陷。简单来说,就是让无人车“判断问题的方式”更贴近人类,类似于给无人车的思维增加这样一条规则:“当后面的车是公交车时,让它们先走。”但这么干,问题也很多。首先,无人车要怎么辨别出什么车是公交车。但要识别公交车又很困难,毕竟公交车什么样子都有,更何况目前的识别系统也不怎么可靠。
之前特斯拉就遭遇过类似的车祸。美国佛罗里达州的一个特斯拉车主开着一辆以自动驾驶模式行驶的特斯拉在高速路上行驶,一辆大卡车在前面转弯,自动驾驶模式就没有作出反应,特斯拉就直接撞上去,导致特斯拉车主身亡。后来官方给出的解释是,在强烈的日照条件下,自动驾驶系统未能注意到大卡车的白色车身,因为未能及时启动刹车系统。
当然,特斯拉的自动驾驶可能比不上谷歌的无人车,但无人车这个黑科技,也确实没有人们想象的那么神——闭着眼睛也能快速避开各种障碍。实际上,系统就是系统,它需要时间计算,也有可能会宕机。虽说这些缺陷还可以慢慢优化,但还有个最大的问题完全没法解决,那就是在大马路上,总有些人不按套路出牌的——乱穿马路的行人、强行加塞的卡车,或者总是处在视线盲点的电动车,当然也少不了那些习惯性闯红灯的人。从某种程度上说,谷歌无人车发生的所有车祸,根源就是那些不守规则的人。毕竟,在理想状态下,机器是不会出错的。
对此,谷歌其实也没有太好的办法,只能把一条一条的“潜规则”灌输给无人车,用他们的话来说,就是让机器学习。这画面就很有趣了,谷歌的工程师们,有的就专门负责给无人车出难题,做出各种奇怪的举动,比如躺在地上蛇形匍匐过马路,一群人在马路上排成一行做青蛙跳。再奇葩一点就是让一个坐着电动轮椅的女人在路上追赶一群鸭子,或者让人猛扑向无人车,像电影里演的那样滚过了无人车的前盖。更丧心病狂的就是让人在车子前面裸奔……这样,当无人车真的遇到类似的场景,就知道如何应对了。
所以,我们也得到了结论,无人车的未来虽然很美好,但离直接上路还有很远的距离。就算是谷歌终于教会了它所有的规则,但来到中国还是白瞎。
 报纸客服电话:4006677866 报纸客服信箱:pcw-advice@vip.sin*.c*m 友情链接与合作:987349267(QQ) 广告与活动:675009(QQ) 网站联系信箱:cpcw@cpcw*.c*m
Copyright © 2006-2011 电脑报官方网站 版权所有 渝ICP备10009040号