0815-61614308

驾车经济学:我们为什么这样驾车?“足球竞彩”2021-01-06 19:13

本文摘要:Waymo的自驾车没有保养是无法左转的,车辆在路口等了很久才最终左转,严重影响了后面人类司机的冷静。Waymo不道德团队负责人、软件工程师纳撒尼尔费尔菲尔德(NathanielFairfield)回应道:没有维护的左转是自动驾驶中最困难的事情之一。

司机

想象你开着一辆车,所以你想从一个路口左转:这条路上没有红绿灯,也没有行车标志。你不仅要在缓慢的车流中寻找空隙,还要确保一旦你这样做,右边车道的车辆不会与你相撞。

这种“无需维护的左转”有多种形式(即无需红绿灯或驾驶标志的左转)。稍微不那么简单的版本是:当你在红绿灯时,一个圆形的绿灯(不是绿色箭头)会让你行驶。如果你想左转,你必须在迎面而来的车流中找到一个缺口。

你可能没有注意到,一个看似简单的“左转”可能会引发一系列问题。例如,司机必须转弯的车道上可能排了很长的队。

这个时候是应该开始拐弯还是等车队开动再平行拐弯?或者确保有转弯的空间,然后马上转弯?对面车道有车辆吗?离自己有多近?车辆行驶速度有多慢?能及时完成曲线吗?行人跑到车道中间要换乘吗?人类每天要处理几百万次这样简单的思维过程,但很多时候还是不能出错。2010年,美国交通部进行的一项研究发现,22.2%的事故是由左转的歧视犯规引起的,只有1.2%的事故是由右转引起的。左转再次发生的事故是右转的20倍。美国租车巨头UPS甚至停止左转,规定司机到达任何目的地的准确方式是防止左转;Waze,一个路线规划地图软件,甚至出售类似的功能,让用户不用左转就可以规划路线。

“左转基本上是人类在简单的驾驶员世界里能做的最简单的事情。《驾车经济学:我们为什么这样驾车?》的作者汤姆范德比尔特是这么说的。1.为什么自动驾驶很难左转?右转有多容易?只需要把车开进右转车道。

在许多路口,司机甚至可以在红灯时右转,所以对于自驾汽车来说非常非常简单。向左拐,就会不一样了。简单的交通流、急切的行人、十字路口的各种标志和交通标志,显然对自主车辆的环境感知和预测提出了很高的挑战。

在这种情况下,人类司机通常是这样处理的:他们不等待,而是仔细观察交通状况。如果左转机会很少,他们不会调整自己的驾驶策略:1)可能会加速更慢,比如擅自左转,寻找车流空隙;2)有时不小心拐进车辆经过的左车道,报告说要拐弯,希望其他车辆留有余地,特别是在车流密集、移动缓慢的情况下,一定要“见针”;3)或者尝试在车道之间找到一个中间位置,然后从中间位置左转,移动到目标车道。对于人和自驾汽车来说,左转必须仔细观察各种信息,以识别合适的转弯机会,尤其是在没有维护的情况下左转。

目前,即使是最熟练的自动驾驶汽车也可能难以平稳左转。工程师们发现,让无人驾驶汽车安全左转是他们遇到的下一个最困难的问题之一。

在瓦莫凤凰总部附近的一个丁字路口,瓦莫的自动驾驶汽车在这个没有信号灯的十字路口左转时,经常会遇到困难,寻找靠近的机会,并靠近长时间行驶的车辆。这条路的速度约为70公里/小时。人类司机很快完成了左转。Waymo的自驾车没有保养是无法左转的,车辆在路口等了很久才最终左转,严重影响了后面人类司机的冷静。

Zoox、Nuro.ai、Pony.ai等其他公司的报告,经常描述无人驾驶车辆在路口左转出错的问题。看来能否顺利完成左转已经成为取决于自主驾驶公司技术水平的最重要指标之一。麻省理工学院自主驾驶研究教授这样描述左转:“每天都有很多挑战,左转完全排在问题清单的首位。

Waymo不道德团队负责人、软件工程师纳撒尼尔费尔菲尔德(Nathaniel Fairfield)回应道:没有维护的左转是自动驾驶中最困难的事情之一。费尔菲尔德带领的团队主要围绕如何让自主车按照规划的路线行驶,解决了“自己车道造车”、“司机之间决策,预测其他车辆不道德”等多层问题。所以要解决这个问题,最重要的一点是,自驾汽车必须与人类驾驶的汽车进行交互,并进行动态计算。

如果一辆自驾汽车开始转弯,就需要计算其他人是否不能滑行,就像人类在某种程度上作为操作者时,必须在心里做出预测一样。或者说,自主车辆必须想办法“礼貌地拒绝”其他车辆停车。

当然,有时候路上的其他人并不总是对这种冲动做出反应。这就是为什么工程师说左转很难,因为很难理解人们的想法。

根据对汽车心脏(微信ID: auto-bit)的理解,人类驾驶员可以通过手势或眼神与其他驾驶员交流,通过微小的信号(如手势、眼神、喇叭、转向灯等)识别在复杂多变的交通状况下何时可以安全左转。)。

然而,自动驾驶汽车已经做到了这一点。原因是自驾汽车不是用来做大脑灰质和肌肉记忆的,而是通过编程、AI和车载传感系统(比如激光、摄像头、雷达)来变道的。因此,在简单的交通条件下,教机器左转是极其困难的。对于自驾汽车来说,区分来车的距离和速度就变成了一个非常简单的部分。

通过GPS导航系统、摄像机、激光雷达和毫米波雷达,自主车辆可以精确测量其路径上任何物体的方向和速度。但是自动驾驶无法判断这些车和行人接下来不会做什么。因此,自动驾驶汽车必须背诵来自其他司机和行人的复杂的人类心理信号,才能完成道路上特立独行、难以驾驭的操作者。这不仅涉及技术,还涉及心理。

2.人车博弈:人的意图是明显的挑战。对于自主车来说,人的意图是最明显的挑战。

2017年5月,傲罗首席执行官克里斯厄姆森在卡内基梅隆大学发表了题为《Perspectives on Self-Driving Cars》的演讲。他提到,自动驾驶汽车做出的决定几乎取决于对人类驾驶员意愿的解释和给予。

要想做好这一点,不仅要知道司机的意图,还要权衡其他司机的动作。为了解释“人为因素”的关键挑战,厄姆森分析了三起引人注目的自动驾驶事故。谷歌的自动驾驶汽车仅在25起自动驾驶事故中与公共汽车相撞。在一次事故中,谷歌的自动驾驶汽车必须分担一定的责任。

司机

在这次事故中,谷歌无人驾驶汽车本打算使用转弯的方式,但它遇到了前面的一堆沙袋。红绿灯变绿的时候,等几辆车开走,然后看到一辆公交车。对于公交车司机来说,路上有足够的空间让他进入。但对于谷歌的无人驾驶汽车,系统预测公交车不会滑行,让无人驾驶汽车平行行驶,但这辆公交车没有,于是两辆车相撞。

优步的自动驾驶汽车发生了打滑事故。在发生严重车祸之前,优步的自驾车停在最左边的车道上,右边的两条车道因为车辆多而堵车。优步试驾车看到自己的车道很顺畅,要自由选择才能通过。但是此时有一个司机在开左边,需要的话想左转,其他车辆在汇合的时候遮住了司机的视线。

司机可能会指出其他车辆不会减速,所以必须放在最左边车道,然后两辆车相撞,Uber的试驾车必须被撞卡。打击可怕的特斯拉Model S .虽然特斯拉在使用自动驾驶仪时一再强调双手放在方向盘上,但遭遇车祸的司机对这个功能深信不疑。当时车辆指出司机不会一直注意路况,这就成了最后一道安全防线,但司机真的可以用自动驾驶仪处理好这一幕。

然而,他们都走到了一起。当大货车经常出现在车前时,车主和车都没有发现它不存在,于是可怕的事故不可避免地又发生了。事故发生后,特斯拉为了让车辆更好的了解驾驶员的状态,做了很多调整。

事故指出,想要给车辆补充人类注意力的短板相当有限。以上案例在一定程度上反映了自驾汽车与人交流的能力是如此重要。我们来考虑一下这个问题:当你在没有红绿灯的人行横道上开车,什么事情不会再发生?一辆向你驶来的汽车可能会打滑。

当你走在车前时,你不会和司机进行眼神交流,以确认他们看到了你,司机不会开车。现在,想象一下,在上述情况下,自驾车里没有司机。如果这辆车检测到你,你怎么判断?明白你要做什么。

汽车

要求为你开车?像这样的交流可能比你想象的更频繁,可能涉及行人、骑自行车的人或其他司机。自动驾驶汽车必须有更简单的通讯。3.人与车:如何有效沟通?科学家们明确提出了一项名为“心灵理论”的研究。

“心论”是指通过他人微小的信号,如声音、肢体语言,甚至看着他人的眼睛,人类可以猜测他人想要做什么。“心理学理论”是指人类可以在拥挤的地铁站或足球比赛中预测对方向左或向右。当司机和行人类似于拥挤的十字路口时,这一理论在一定程度上进行了干预。这种干预是及时的,你会充分意识到,人们开始相互交换一些看得见的线索,以识别自己是否能安全通过,一些信息是通过非常微小的信号相互交换的。

现在的自动驾驶汽车没有人类智能,无法识别来自人类的身体信号或瞥见,这些信息对自动驾驶汽车毫无意义。同时,“心学”的影响是双向的。某种程度上,人类无法解读自动驾驶汽车的“理念”。

如果行人在绿灯最后一秒要过斑马线,正在拐弯的自驾车会不会不停车或者晚点拐弯?如果车里没有人类司机低头或者挥手,行人怎么分辨?所以业界有一个共识,就是汽车厂商可能要开发新的信号系统来提示自驾汽车的下一个动作,未来司机和行人可能要像教孩子识别交通信号一样,去识别自驾汽车接收到的信号。硅谷的自动驾驶公司Drive.ai在这方面做了很好的尝试:一是Drive.ai视觉上被打死,自动驾驶团队的外观被涂成亮橙色,方便司机和行人。

识别;其次,在车辆的左右两侧,有蓝色的交叉色条,上面用白色字体标注着“自驾汽车”字样。Drive.ai甚至抛弃了“autonomous”这个简单的词,代之以大家都能理解的“self-drive”。

第三,车辆前部的保险杠上写着“自驾汽车”字样,行人过马路时可以看到。四、车身上挂四个外屏,分别制作在引擎盖、车身后部、两个前轮上方(每个尺寸为22.5X7.5英寸)。

这些屏幕充当车辆的“喉舌”。当车辆即将为行人停车时,显示屏不会再次闪烁,然后显示“你又走了”的文字和行人过人行横道的图标。后显示屏的内容不会有差别。当车辆为忠实的行人停车时,显示屏上不会经常出现“行人过马路”的字样。

根据用户在测试期间对系统的反应,整个设计是递归的。从传统车到自驾车有一个很长的过渡期,但正是因为有了这个过渡期,Drive.ai等标准化解决方案才不会被忽视。

但是一旦路上所有的车都是自动驾驶的,当所有的车都可以互相交流的时候,左转就不会很简单了。就像飞机塔台的指挥官一样,车与车之间的沟通不会让所有的车都告诉对方怎么过去。4.不能左转,不是算法问题吗?这个行业也有“保守”的玩家。今年5月,Cruise听外界说,在旧金山这种简单的环境下,继续执行1400个不需要维护的左弯。

Cruise利用机器学习解决左转问题,以应对左转的挑战:Cruise开发了一种算法,可以计算出左转前多个路口之间的距离。本质上,交叉口的地理因素是多样的,包括车道的数量和朝向,是否与铁路轨道和人行横道相似。更重要的是,还有动力因素,包括摩托车到大卡车等其他车辆的速度。

在建模中,Cruise测量“指定间隙”的长度,即汽车转入路口与迎面而来的汽车转入路口之间的时间距离,并最大化该值以提高安全性。然后Cruise在建模环境下进行大量练习,用可视化工具分析数据,积累大量数据后,Cruise可以做出很好的左转决策。Waymo也通过了模拟建模测试和路试,某种程度上不具备这样的能力。

Waymo说,他们的车辆每天可以模拟1000多万英里。虽然可以通过仿真建模获得“左转不维修”的经验,但Waymo在“左转”这件事上似乎有点激进。去年8月,国外媒体报道称,Waymo的自驾汽车不会自律性的进行路线规划,尽量避免出现“不维修尽量避免左转或在高速公路上行驶”等困难情况。

瓦伊莫早期骑手的一名早期成员透露了瓦伊莫绕着街区向右走了很长一段路以防止它左转的消息。虽然Waymo声称不会定期“行使左转”,但Waymo似乎很谨慎,自主驾驶行业的标杆也否认“高速公路上不维修左转是最难的驾驶员操作之一”。由于这是一项新技术,我们将保持谨慎,因为安全性是我们的首要任务。

我知道克鲁斯在左转时是否能说“在韦莫前面”。但话又说回来,虽然在类似“防左转”的策略中使用自主车会增加很多困难,看似是捷径,但从长远来看,“左转问题”并没有完全解决。还有一种观点认为,自驾车在路口犹豫不决,原因不是算法问题,而是目前情况下自驾车继续执行左转的安全裕度太小,风险太高。这个问题无法通过更好的算法来解决,也无法通过提高自主车辆不可接受的风险水平来优化。

十字路口左转的风险是不一样的。交叉口的布局、物理特性以及其他交通参与者潜在的不道德范围是自主车辆无法改变的。


本文关键词:司机,自主,车辆,汽车,竞彩资讯,人类

本文来源:竞彩资讯-www.shidiaoszsd.com