题目中的两个热点大家无疑都知道,都是低概率但却有极大社会影响的事件。

两件事,在邦老师看来,一个真实性饱受争议(奔驰事件),虽然责任到底在人还是在“机器”尚在调查,但前后存在的矛盾点让诸多媒体和大V认定“有人说谎”。反之则关系到“大公司”和“成熟产品”是否存在漏洞。

另一个事件(UBER事件),同样需要明确责任方,不同的是,这起事故不但要考虑责任方是驾驶员还是行人,还需搞清驾驶员是人是车。调查结果则关系到尚处萌芽期的“智能驾驶”产业发展前景或步调。

首先我们简单回顾下两件事目前的最新进展:

■  奔驰事件发生较久,目前疑云密布

事故出现后的次日,媒体大V们就纷纷针对媒体报道模拟重现,不乏原车原路的场景重现,针对的主要是如何使车辆减速/退出巡航,但对源头媒体和车主的说法均未“成功证实”。剧情至少已有2次反转:“后门控制说”随着媒体们的测试和车主本人的辟谣,基本已出局,“解安全带和开车门减速”到今天也基本被证伪。

换句话说,因为相关技术和产品相对成熟,验证途径也是开放的。技术原理+诸方验证均可轻易表明:因为物理原理+冗余体系(多重安全优先机制保障)的存在,巡航故障出现且无法取消或将车刹停的可能性虽存在,但概率微乎其微,关键是车主的叙述还存有逻辑漏洞——主要一点就是:原本失效的刹车功能为何最后又能再次作用(已确定其是机械而非电子控制)。所以目前阶段,至少在汽车圈内,“车主说谎论”虽未坐实,但几乎是一边倒的态度了。

▲汽车圈内普遍将此事当做一场技术与逻辑的游戏,纷纷表达强烈态度。

对此,邦老师表示没啥可说的,最终到底是“人不靠谱”还是“车不靠谱”,我们静观其变,等待结果就是(如果能有)。

 ■  UBER事件目前阶段最新进展

事发地亚利桑那州坦佩市的警长表示,死者可能是从阴影中突然出现,且未走人行道,从车速(60公里/小时左右)和与行人距离来讲,无论驾驶者是人是车,恐怕都难躲避这场灾祸——这位警长(包括市长)显然对在其辖区内“起飞”的科技项目选择了宽容。另外在责任明确后,法律如何判决也是广受关注的主题,相关产业、公众对技术的信任程度和未来立法都必将受到影响。

为什么说UBER事件正在代表整个行业被关注,而未被广泛质疑其自身技术方案合理性?因为自动驾驶目前虽然存在实现路径的不同选择,但在识别和应对突发状况的机器视觉方面,硬件方案是大同小异的。邦老师在这里简要科普一下,以UBER为例:此次的测试车,像多数自动驾驶车辆一样,配备了激光雷达、毫米波雷达、超声波雷达和摄像头,各自分工进行视觉识别,共同组成一套理论上完善的体系。

激光雷达和毫米波雷达强于形状辨别(各有优劣),比如对车辆、树木以及人类(最好是大型且固定的),但是不强于信号阅读(包括颜色),比如交通标志和红绿灯,这些更多要靠摄像头与软件算法的配合,但又会受到天气、光照等因素的影响(和人眼近似)。其实再细说还有距离、角度范围、精细度、性价比等诸多维度的优劣因素,邦老师暂且用下面示意图简单表述,有兴趣的粉丝可以留言让邦老师知道。

▲激光雷达生成的影像

▲光学摄像机拍摄的图像

▲UBER的ATG团队(先进技术小组)对测试车辆的标准配备

目前为止的信息表明,事发时车辆并未探测到突然出现的行人并采取刹车操作。目前多方推测,技术上很可能就是因为光照条件较差,导致车辆视觉系统未能对行人进行正确的识别判断,造成的极端案例,当然也不排除软硬件故障的可能性。对于这一点,邦老师认为,即使警方真的认定UBER无人驾驶车是“无辜”的,但UBER在技术方案上无疑还是有改进空间的,这次不过是UBER侥幸碰到了行人未走人行道(请原谅对逝者的不敬),下次呢?如同一些自动驾驶从业者所说的:“自动驾驶需要更可靠、安全的传感器和软件算法。”

当然,还要看一点:UBER的自动驾驶方案,是否真的有某部分走了“捷径”?对此我们保持高度关注。

对于UBER事件,邦老师还想说,即使最后责任真的认定是行人方责任,这对行业也是个重大警示,邦老师对UBER及其他自动驾驶研发公司提出3点建议:

1.找到系统识别和判断的问题所在,想办法进一步降低风险,避免未来类似事故风险。

2.适当放缓商业化速度考量,考虑让研发企业自建封闭实验场地,确保特定安全标准后再进入开放和半开放环境测试。

3.为车辆配备远红外热成像或高精度地图,前者可保证恶劣天气/光纤条件下的行人识别,后者可提前知晓更多道路细节(形状、性质、行人通过率),并根据信息提前做出预判决策(如提前减速)。

■ 再多聊10块钱的:对于技术进步应该“恐慌”还是“敬畏”

讲个例子:世界上第一款喷气式客机,英国的“彗星”,在刚问世阶段曾有6架前后发生事故,共99人遇难。在近万小时调查后,发现故障源于方形窗户导致的金属疲劳,制造方吸取教训后采用了新材料和新形状,终于推出了更成熟的波音707。到今天,飞机的安全性早已不可同日而语,给我们生活带来的便利进步更无需多言。

在这样一个社会级变革的初期阶段,业界对“智能驾驶”规则的设定思路和探讨也经常会“撞”上伦理墙——假定这样一个场景:一个行人突然冲出,横穿高速行驶的道路,车辆只能选择急刹或猛打转向,急刹可能导致车内乘客受伤甚至死亡,猛打转向就会撞到路旁正常行走的另一个人,同时也可能导致车内乘客的伤亡。怎样决策都会撞人,这时的规则应如何设定?靠瞬间责任判断还是靠风险评估判断呢?(算力足够的前提下)。目前,汽车的交通环境的确非常复杂,这也是为什么在发展自动驾驶的同时,车联网和智能交通也要同步发展的原因。而我们每个人,在“行人”身份下处于公共交通中时,自身的警惕性和自觉性更是永恒主题。

■ 邦点评

两个案件都是由“技术”和机器引发的,都曾在“第一波传播”中引发我们对机器的恐慌和关注,最终归咎于人还是机器,结果也许相同,也许不同。邦老师觉得,也许我们对机器智能的安全性和可信任度,有着极高的期许,但别忘了,在“真正的”AI到来前,在后面定义、编程和优先级设定的还是我们,判断和规则也都是我们定下的——到最后还是我们创造者的问题,机器只不过是背锅侠。

归根结底,无论从技术角度还是从伦理角度,其实不是“人类靠不靠谱”的问题,也不是“机器靠不靠谱”的问题,问题在于“理念和规则如何能更靠谱”,推进商业化进程的步骤如何能更靠谱,这应该是我们全社会及相关管理者和生产者共同探讨制订的。人类肯定是不断“变懒”的,管理肯定是需要更加简单高效的,但在提升效率、降低成本的路途上,如何将“人性”更多保留在机器判定、决策、执行的逻辑中,一直是我们应该着重思考的,毕竟至少在初衷上,“智能机器”还是为我们“人”服务的。