智驾系统是必然,但任重道远。
10302
146
[27 楼] stevenkoh
[泡菜]
24-9-28 15:15
讲得很好,客观理性,责任分析清楚。并没有一味的袒护消费者博取流量,也没有一味指责主机厂,而是公交司机也应承担责任。
4S员工过度夸大产品,消费者你选择相信,那也是消费者自己的责任。 |
[26 楼] seekor
[资深泡菜]
24-9-27 23:32
系统和码农只是为AI搭了一个框架,里面真正的内容是需要各种驾驶场景的训练,有主动的,也有被动的,其最后形成的所谓“逻辑”是个“黑盒子”,难于检验,因此AI由此产生的推理动作也并不一定完全符合人类的逻辑。这就包含风险。
其实人的逻辑是在成长过程中在知识的积累、经验的积累,并且在他人的不断有意无意的矫正中建立的,在驾驶车辆之外的知识在适当的时候可能被用于对某种驾驶场景的合理逻辑推理反映,又或者被证实有效的。所谓“功夫在诗外”有意无意地起着作用。而驾驶AI在目前来看,可能还到不了这个层面。 所以,相对人类的判断,说的是大逻辑推理下的判断,不说偶发性的错误,目前的驾驶AI相对还是简单思维。这个“不可靠”厂家是有认知的。而对驾驶AI有神秘化认识的人,特别是对计算机相关知识缺乏的人,是对驾驶AI最信任的群体。这也是厂家乐见的。 |
[25 楼] huhuzz
[泡菜]
24-9-27 21:34
ai的幻觉是没法用逻辑运算的理论来解释的。
其实就是ai的道路驾驶经验太少了,解决办法就是多收集真实的道路驾驶画面去训练ai的神经网络模型,让它能更准确的识别。 老司机的经验也是通过实际的驾驶里程积累出来的。 发布自 iOS客户端 |
[24 楼] tpytpy1965
[泡菜]
24-9-27 19:13
ljj 发表于 2024-09-27 17:57 |
[23 楼] ljj
[泡菜]
24-9-27 17:57
人要开车,首先,驾校学习交规,上车场考,路考,合格后
才能拿本子,可以合法开车,再开几年,10万公里以后才能算 老司机。 可机器,谁给它发了驾照,就可以开车? |
[22 楼] tpytpy1965
[泡菜]
24-9-27 17:31
啊色丁 发表于 2024-09-27 16:46 |
[21 楼] 啊色丁
[泡菜]
24-9-27 16:46
磐安风 发表于 2024-09-27 11:32 人比机器更容易错。就目前来说,机器的知识面没有人广。 |
[20 楼] stevenkoh
[泡菜]
24-9-27 13:16
啊色丁 发表于 2024-09-27 09:43 可以先百度一下 P=NP 问题,先把这个问题理解清楚,再想想输入密码的“验证码”防止机器人系统。为什么可以成功欺骗“机器人(哪怕是AI)”和实际的人?假如AI场景出现这样的问题,人可以轻易通过,可能不觉得是个事儿,可能过后就忘了。但(智驾机器人)就觉得是一个天大的事情,需要采取措施。这个措施人一般不会操作,只有AI才会操作。这对人看来是一个误操作,因为后面的跟车也觉得普通人能过得去。但AI智驾觉得不行,于是突然刹车,造成后续追尾。 想清楚上面这段话,再看看下面的视频。不管是如车主所言,自己踩油门,而导致智驾退出。那为何AEB还是启动,并发挥作用刹停呢?这就是和737max一样的问题,属于自动控制理论的“控制振荡”问题。这就是只有自动驾驶才会产生的问题,用户不用自动驾驶,哪怕是定速巡航也不会出现这类问题。 智驾本身会避免问题,这大家好理解。但智驾本身也会带来智驾才有的问题,这大家不好理解。我个人就是在高速上,针对菊花家和厂长家的四平八稳的,我都距离很远。天知道他们会出什么幺蛾子。 再补充:这里有更详细的厂家说明。https://haokan.baidu.com/v?pd=wisenatural&vid=2602502562428689280 德国欧洲之翼、国内东航、新加坡新航、印尼航空、马航...都出现过驾驶员的故意问题导致惨剧。那么我们会信任“飞行员群体”吗?每个人答案不一样,我还是信任的。那么智驾也出现多次因为智驾本身的带来的问题,那么我们还有信任“智驾”吗?每个人答案不一样,我还是不信任的,非但购买时候无所谓,而且作为旁车或后车我还远离他们。 假如我是一个只做后排的雇主,尽管司机可能被收买或暗杀我,但我仍然信任司机的驾驶,否则我不雇佣他。如果把这个司机替换成“智驾系统”呢?我无法信任智驾系统,因为智驾不是一个人,是机器。机器不会犯错,但机器不知道何为错,机器也无所谓错。机器的错和对,都是码农决定的。码农只是尽力,但无法确认多和错,这才是我最担心的。机器不是人,无法承担责任,现有法律也不支持机器制造商承担责任。 页面存在多个视频,点击载入……stevenkoh 编辑于 2024-09-27 13:38 |
[19 楼] 磐安风
[泡菜]
24-9-27 11:32
人工智能
就是机器学习人类得到的智慧 作为师傅的人类在驾车时都没法避免犯错 那么作为徒弟的人工智能,怎么可能不出错呢? 发布自 安卓客户端 |
[18 楼] 男人心似海深
[资深泡菜]
24-9-27 11:07
M5不是全系标配激光雷达吗?照理不应该犯这个低级错误啊
|
[17 楼] 啊色丁
[泡菜]
24-9-27 09:47
stevenkoh 发表于 2024-09-26 12:48 有道理。把智能辅助驾驶当成智能自动驾驶是拿自己的命在玩。 而对于码农和产品经理,不担心这小概率的事故。 |
[16 楼] 啊色丁
[泡菜]
24-9-27 09:43
darena 发表于 2024-09-26 11:42 我觉得是程序员有问题,车子前面有障碍物,就不该撞上去。摄像头看到了前面的清障车,就不应该找什么“无法比较”这样无稽的理由,承认自己无能才对。 |
[15 楼] 啊色丁
[泡菜]
24-9-27 09:39
dual 发表于 2024-09-26 09:05 等智能驾驶成熟后就不需要司机了,所以你后面的担忧都不需要了。 |
[14 楼] 啊色丁
[泡菜]
24-9-27 09:37
Aaron0858 发表于 2024-09-23 15:43 目前所有的智能驾驶都包含有视觉方案。 |
[13 楼] stevenkoh
[泡菜]
24-9-26 12:48
darena 发表于 2024-09-26 11:42 识别清障车不是“难不难”,而是“敢不敢”,敢不敢负责?智驾的码农和产品经理都是打工的,干嘛要负责打包票100%能识别“清障车”,出了问题我来。 其实搞IT的心里面是门清的,这个叫"P=nP"问题,没有答案的。所以智驾公司会炮制一些词汇就是让老板去忽悠媒体、忽悠客户、忽悠ZF的。让消费者自己担责,让ZF修改法律,自己免责。这些东西的技术本质是P=NP问题。而在责任博弈面前,大家都不是傻子。你要说“法律落后于技术”,叫我修改法律背锅,那么我就说你就是辅助驾驶,L2以及以下都不是自动驾驶,而我不发L3实际运营牌照,只发L3测试牌照,而且只在有限区域。 ![]() ![]() 真正的傻子是真相信这是“智驾”的,全程双手离开方向盘的,以后自己怎么死都不不知道(链接...91贴)。 其实越搞IT的就越知道,既然网站在输入密码的时候,还要同时输入验证码。就是为了鉴别你是不是人,也就是人永远无法替代。滴滴和萝卜敢用智驾,因为他们是土方车渣土车公司,商业运营可以通过商业保险把风险转嫁给每一个打车的用户。而我们私家车主不是商业运营,出了事是自己家庭承担的。 stevenkoh 编辑于 2024-09-26 12:59 |
[12 楼] darena
[泡菜]
24-9-26 11:42
"在弯道出弯时前面有停在路上的清障车", 这种静态物体是不是难于识别.
运动的车辆可以通过前后两帧比较识别出来. 静止物体无法比较, 融入了道路, 被认为是道路的花纹了. |
[11 楼] ljj
[泡菜]
24-9-26 11:27
智商不够,电车来凑。
|
[10 楼] tpytpy1965
[泡菜]
24-9-26 10:55
dual 发表于 2024-09-26 09:05 |
[9 楼] stevenkoh
[泡菜]
24-9-26 10:40
不要把智驾看得高大上,就是一个辅助驾驶而已。智驾不是技术问题,而是“ZZ博弈问题”。举一个数学模型类比就知道了,土方车、渣土车运营公司。
假如有一个“土方车司机兄弟会”,这就是智驾公司。智驾公司控制算法(土方车司机驾照),土方车渣土车的车辆(行驶证)是另外的运营公司(比如滴滴打车)。大家在路上可以看到土方车司机开车横冲直撞,和我们私家车司机完全不同,为什么?因为保险和土方车车辆所有公司。 土方车所有公司都是当地有背景的,出了事故以后,保险、理赔啥的都不吃亏。土方车运营公司(行驶证单位)的风险博弈,保险公司也觉得可以承受。所以,土方车都安装摄像头和GPS,内部教育也是绝对要遵守交规,在遵守交规的基础上,可以横冲直撞(智驾风险)。只要遵守交规,后续压死人也和司机关系不大。盲区的老人很多自认倒霉,因为土方车没有违反交规。大部分情况下,违反交规的恰恰是走路慢悠悠的老人啥的。 所以,智驾的客户应该是类似土方车运营方(驾驶证单位),而不是我们个人用户。除非你的车辆制造商可以承担“驾驶证、行驶证”的法律责任。而目前智驾无论是零部件模式、hi模式(整体方案OEM)还是智选模式赤膊上阵,都不会替代驾驶证和行驶证承担法律责任。 |
[8 楼] dual
[泡菜]
24-9-26 09:05
道远但任不重
首先司机有义务自己把车开好 其次驾驶智能了,司机干嘛?玩手机还是睡觉?还是盯着路况思考思考智能驾驶这样开对不对,如果是我自己开我会怎么做? 简直滑稽啊 |
[7 楼] tpytpy1965
[泡菜]
24-9-24 09:44
我想一个合格的司机不会年年出事故的,一个好的司机连续5年以上不出事故的也不少。单独让智驾自己开,看看能连续开多长时间不出事故?看看是属于合格还是好司机。如果连合格都达不到,你说能用吗?
|
[6 楼] keji
[资深泡菜]
24-9-24 09:15
有些事故还是先等等。
通常司机都不会讲实话的。 |
[5 楼] Aaron0858
[资深泡菜]
24-9-23 15:43
所以视觉方案才是方向
|
[4 楼] 啊色丁
[泡菜]
24-9-23 11:33
funder 发表于 2024-09-21 16:07 不懂。感觉主帖所说的问题跟规则没有关系。 |
[3 楼] funder
[望远镜&天文版主]
24-9-21 16:07
现在端对端的AI智驾就是抛弃了大部分规则,因此就避免了“规则有限而情况无限的”问题。
|
[2 楼] cnzxy
[泡菜]
24-9-21 11:58
现在的信息世界都是程序员构建的。所以才不断修复bug,并且在修复bug过程中引入新的bug。
cnzxy 编辑于 2024-09-21 11:59 |
[1 楼] 啊色丁
[泡菜]
24-9-21 08:56
最先进的华为智驾也出这样的事了,
M5在左车道直行,右前侧一公交车在前方近百米处左转调头,路中间是有隔离栏杆的,那里有个调头缺口。M5司机深信小艺,任由它径直撞向公交车,一百米不减速司机都不带眨眼的。 司机把L2辅助驾驶当成老司机来用这是不对的,可是不管是视觉智驾还是激光雷达,识别那么大的公交车很难吗? 还有个理想,在弯道出弯时前面有停在路上的清障车,也是直接就撞上去了,识别不到有东西吗? 会不会是只有程序员在系统中设定了哪些画面是需要刹车的,智驾系统才会刹车?如果是这样的话,在办公室里连夜写代码的人怎么可能把每种情况都写到系统里呢? |