标签:基本 自己 问题 等等 不可 系统 mod 打补丁 model
【如果你在开车,不论是外界客观环境或自己身体条件造成看不清前方路况时,你会减速及停车】,这是基本常识。以人身安全为代价来打破基本常识,这样的设计风险太高!【Model S和Uber自动驾驶】的交通事故说明其【自动驾驶】的【逻辑模型】存在严重的缺陷。
孤立地将人类驾驶交通事故率和自动驾驶交通事故率做对比,这是不对的:不可能在自动驾驶系统中设计“酒驾模式”、“疲劳驾驶模式”、“注意力不集中模式”、“超速模式”等等,只要不犯常识性错误,自动驾驶的安全性远远超过人类驾驶;因为常规传感器(摄像头、超声波传感器、普通雷达)的精度已超过人类,所以不犯常识性错误的根本在于自动驾驶【逻辑模型】的合理性;在【逻辑模型】不合理的系统中,把工作重点放在如激光雷达、红外摄像之类更高精度、更多形式的传感器上,我相信不断打补丁最终肯定能解决问题,但这不是严谨的工作态度。
在现有成熟的技术基础上,以合理的硬件成本,通过【重建模型、流程再造】,我能在3至5个月内解决问题。
标签:基本 自己 问题 等等 不可 系统 mod 打补丁 model
原文地址:https://www.cnblogs.com/mofeisitrue/p/8986605.html