[討論] 光達與毫米波雷達 自駕技術的未來之戰
https://youtu.be/bPaSqgg7aws
今天網路有一位曲博士分析了未來自駕技術所使用的雷達與光達的差異
並大膽分析特斯拉未來自駕技術的選擇
因為影片很長相信大多數人不會看完
所以總結一下
特斯拉目前硬體配置能否在未來升級到LV2以上?
特斯拉目前搭配正前方的三個影像感測器作為偵測前中後車況
搭配AI演算,在數據量足夠分析後,有可能能達成
但曲博並不看好
為何人類兩個眼睛就能開車,特斯拉三個影像感測器的即時訊息量還不足以達成自駕?
人類兩個眼睛可以抓到同一物體的成像差別,足以判斷物體的遠近。並且人類眼睛對焦極快,處理影像的速度也比電腦快,所以兩隻眼睛即能開車。
而特斯拉的三個鏡頭畫素太低,且都只能定焦前中後還需做影像處理,所以目前無法對多變的路況做即時的分析。
光達與雷達兩者的優缺點為何?
雷達分辨率太低,角解析度量產只能做到2-5度,路況無法做精確的偵測。
但是價格便宜,且能跟車體做較好的整合
光達有很好的分辨率,但是整個硬體像個大水桶,用在車上不美觀又會有配置的麻煩,且價格高達一萬美金大部分車廠都很難接受
光達與雷達的未來為何?
雷達分辨率正在進步,而光達的價格與體積也在進步
目前來看還不知道誰會勝出,但曲博看好光達
特斯拉未來有沒有可能採用光達?
曲博認為未來光達價格與體積都進步到一個程度,且有其他車廠採用後,特斯拉就有可能改變目前的硬體規格採用光達。
其他的論點還有特斯拉明明沒有自動駕駛,取名卻叫做Auto Pilot有點誤導消費者,特斯拉不想被加州監管,這樣子的行為在一個與生命有關的造車行業是不正確的。
--
這樣打馬神跟信徒的臉很不厚道啦
3個鏡頭?前中後?基本調查都沒做好就來評論?
知不知道人開車的反應時間是多少?看到不動手?
曲博士的背景是??
畫素太低的確可以嘴 但前三鏡頭的左右兩隻就等同於
人的雙眼可以有距離資訊 486的eyesight也是這樣幹
的
畫素低就會造成看不夠遠 但他怎麼知道畫素多低?行
車記錄器錄的不見得等於sensor的原始解析度啊
曲博有提到這個技術,但特斯拉似乎選擇用AI做deep learning 計算距離的方式。
※ 編輯: POWERSERIES (27.52.63.194 臺灣), 03/25/2021 11:29:12光達要搭配高精地圖 這點就GG了啦 不是普遍方案
要用高精地圖 注定只有在地車企能做
沒有國家會讓其他非本國車企掌握高精地圖的
Tesla的視覺辨識 神經網路訓練才 有可能 成功
只能說 有可能 成功
如果像waymo這樣 我就是只做一個區域 也行
看車企的目標擺在哪 就會決定往哪走
高精地圖精密到幾公分的程度 這資安問題太嚴重
深度跟ai完全無關吧 他在鬼扯什麼
光達 目前都是要搭配 高精地圖 這是很棒的區域解
現在硬體的神經網路影像輸入解析度都不會太大,放4
K sensor最後也要縮小再餵入,光達掃出來的矩陣解
析度也很低
深度是純光學跟數學
沒錯 深度學習是純光學+數學
如果搭配Garmin的圖資
光達+高速晶片,車可能直接產生智能視覺+高精地圖
高精地圖跟garmin或估狗圖資等級差太多
就看車商要否把資訊上傳變資料庫,地圖商死光光
這些都是幾年前就知道的東西了..
p光達的目的是判斷車在高精地圖上的哪一點用
高精地圖的產生可能不是你開過去 就有的
高精地圖準確度達到幾公分的等級
目前汽車車上晶片的算力 是沒辦法達到這種程度的
特斯拉深度學習也是用dojo超級電腦訓練
主要還是電腦對圖形判斷太差
跟車上的晶片沒什麼關係
兩歲小朋友,只要幾筆畫的圖,就能說出是貓狗
自駕不需要全部地圖,只要知道是路+可以通過,其他
走線可用舊圖資
電腦需要大量數據還沒辦法快
plug大 不行 你這樣就是特斯拉的方案
所以人可以輕易判斷什麼是白色貨車,什麼是天際線
電腦一出錯就撞
車載光達即時製作路面環境給AI判斷能不能過就好
AI判斷 就是特斯拉現在在做得 怎麼判斷?訓練!
內文都過時資訊 S大推的才是目前各方案的現況
現在很多公司用點雲建立機器視覺了,即時路面環境
AI能不能訓練成功? 天知道
不是問題
現在感測器可以一直裝,就看晶片多快算出視覺
把空載光達位態同步與計算晶片作一起放車上
陣列式光達鏡頭已經大幅降價,要多裝不是問題
曲建仲 成大化工學士 清大材料碩士 台大電機博士
德儀資深工程師
高精度地圖誰來維護啊 花多少錢? waymo走不出鳳
凰城 還看不出來嗎?
Tesla不是用3鏡頭 曲低能 做好功課再來
軟體才是關鍵
影片有解釋下雨光達就失效基本還是視覺作用,那下
雨可以自駕為何晴天就不能?精度較低不等於不能
幫Lin大補充一下 Tesla是用8顆鏡頭在訓練
目前來看,混合影像+光達較能面對環境變數
樓上從哪裡看出來的
plug大 完全誤會這些東西的能力了 有空我發一篇
除了天氣,光達有反射率的差異,辨識距離會縮短,
還有噪訊,都會環境單純,在鄉村會搞死AI
舉例,90度正面,光達看鐵門300米、混凝土150、土
牆60,若時速90,偵測到牆要AI多遠開始煞車到停?
有勞S大,我只是對air bone 跟TSLR應用有興趣
他的youtube 有很多謬論 當科普看就好
主要還是在感知這塊,電腦遠不如人類,電腦99%情況
做得比人類駕駛好,但還是卻會發生離譜錯誤
摻在一起就好啦,沒有影像辨識怎麼可能完全掌控路況
主流是多感應器融合(sensor fusion),Tesla擺明不
用lidar,那在視覺無法辨識&濾掉毫米波雷達的靜止
物量測資訊下,就變成災難啊
視覺在lane tracking的應用上就很成功,但全都丟給
視覺&深度學習,有夢最美囉
看到白灰的翻覆貨車頂以為是天空就不意外了
特斯拉的戰略蠻正確的,lidar又貴整合難度又高,
裝這個根本拖累上市時程,至於少裝的後果就打媒體戰
解決就好
Lidar也不是萬靈丹啦!即時有lidar資訊,還是需要
去做後處理跟分類!一樣會有分錯類的可能性
我猜馬斯克打的算盤是幾年之後顯卡晶片效能滿出來
所以他的演算法賭的是軟改硬幹
影像辨識解析度會影響判斷結果沒錯,但是電腦需要的
解晰度比你想像的要低很多就能正確判斷。人眼看起來
根本馬賽克的東西只要training正確,ANN判斷的正確
率高的讓人莫名其妙。而實際上要拉高影像解析度以現
在的技術根本也沒有太多難度,ANN即時辨識的運算需
求也根本不龐大(運算慢是在training)。所以特不拉
高光學解析度,並不是技術難以克服,更多是不需要
應該是說解析度高反而增加 training 的成本與困難度
只要對物體有一定程度的辨別度,解析度是越低越好
光達是Lidar嗎
55
Re: [分享] 特斯拉國道直直插入貨車車廂內影片to better understand which companies are leading the rollout of self-driving technology and which are lagging 報告給你看,說報告裡面有十項指標不能當作自駕技術排名 叫你看單獨技術項的分數,又說這項目給分太武斷24
Re: [分享] 台灣之光 特斯拉沒這個問題身為Musk粉,來回一下這篇 先問兩個問題: 1. 一定得用光達才能自駕嗎?不用光達行不行? 2. 自駕車用了光達能否增加安全係數? 針對第一個問題,26
[電車] 沒有雷達的特斯拉正式出海,為何馬斯克、標題連結: 沒有雷達的特斯拉正式出海,為何馬斯克、Toyota發展自動駕駛都押注鏡頭技術? 內文: 特斯拉宣佈捨棄雷達近一年後,沒有搭載雷達的Model 3、Model Y如今也正式出海,銷往22
[電車] 有段時間前的消息 關於 Tesla HW4.0現在教主去開麥拉拉了 好像就沒人發特斯拉的新聞了 我來發下半舊的聞 之前特斯拉申報給歐洲與中國的資料裡揭露11
Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好這邊看完,我的感想只有“供三小?” 雷達與光達在原理上是利用掃描的方式,取得距離與向量,本質上資料的維度就是大於二維了。 是什麼時候變一維的?如果要這麼瞎扯,那鏡頭裡的CMOS一次也只能讀一個cell的資料, 一樣得要逐個掃描才能得到二維影像(這個就是所謂的果凍效應的成因), 照你的說法,鏡頭不也一樣是一維的?9
Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好目前應用的雷達跟光達在量測數據上還是有些不同 [雷達] 參考這篇文章- 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目 標,可以帶回更高精度的資訊。 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著
32
[問題] 150w左右價位詢問28
BMW 3系列間諜照流出11
[閒聊] 電動車2025年底要課馬力稅?18
[閒聊] 為什麼現在座位越來越難坐了23
[問題] 215/55 r17輪胎推薦6
[問題] 舒熱佳隔熱紙XE13
Re: [新聞] 南韓電動車今晨連續「起火自燃」 皆使去4
Re: [新聞] 南韓電動車今晨連續「起火自燃」 皆使去15
[情報] Rolls-Royce Cullinan可能搭載H3
[問題] 轉速表有沒有可能是快樂錶?15
[問題] 汽車有衝壓進氣的設計嗎?3
Re: [新聞] 宛如科幻小說 馬斯克的未來地底隧道亮相