PTT推薦

[心得] 簡單解釋如何實現自動駕駛

看板car標題[心得] 簡單解釋如何實現自動駕駛作者
StarburyX
()
時間推噓20 推:22 噓:2 →:51

<<不比誰強誰弱,只講原理>>

<<歡迎理性討論,勿戰廠牌>>

用一個簡單的方式來解釋目前實現自動駕駛兩大方案

=======================================

狀況題:


小明家前面有一個蔡英文總統的人形立牌,

現在有兩個人,一個是念能力高手的瞎子,一個是智商只有20的阿呆,

請問他們如何辨識出這個立牌就是蔡英文?


瞎子是念能力高手擁有100公尺的圓,

他發動圓以後,可以輕易知道這邊有一個立牌,

但是因為他看不到,不知道立牌上面究竟是誰,

所以他自費請一個助手做小抄,

直接告訴他,只要在小明家前面的立牌,就是蔡英文


阿呆因為智力不好,雖然眼睛看的到立牌上面的圖案,

但是他分辨不出到底他看到的是蔡英文還是由達大師,

阿呆只好請了一個家教,準備了幾百張蔡英文的照片,

日夜看,晚也看,

最後經過幾個月,他終於知道那個立牌就是蔡英文了,可喜可賀

=======================================

瞎子=Waymo=光達+高精度地圖

阿呆=Tesla=純視覺影像

=======================================

光達就像圓,對周遭環境立體感應非常厲害,但是卻無法認得平面上圖案,

這裡的圖案指的 是路面的寬度標線,各種號誌標示

所以光達必須要搭配小抄(高精度地圖),

例如假設地上的標線從 禁行機車-->禁行汽車

高精度地圖必須跟上修改,否則車子無法分辨地上的字

優點:
1.安全性高,因為光達對周遭的掌握度高
2.如果只是在固定區域內,只要地圖維護得宜,達成LV5自動駕駛的可能性較高

缺點:
1.高精度地圖需不斷地更新,成本高昂
2.沒有地圖就無法自動駕駛
3.高精度地圖有軍事價值,如果讓其他國家拿到有資安風險



純視覺方案就像是人類的眼睛 (當然人腦比電腦厲害多了),

透過鏡頭獲得的圖片,加上其連續的變化及數學公式,分辨周遭的環境,

利用深度學習及不斷的訓練,讓電腦AI變得更聰明,

就像是圍棋打敗李世石Alphago一樣

優點:
1.通用解,一旦成功就全世界通用
2.只需要攝像頭,就可以達成自動駕駛,造車成本低廉
3.自動駕駛的表現會非常像人類

缺點:
1.阿呆真的能夠從智商20變成120嗎? 未知
2.AI訓練途中,危險性高,分辨不出橫躺的白色卡車就是例子


========================================

Q:為何不用光達搭配視覺辨識?更完美?

A:人類開車不也是只用眼睛嗎?
只要AI訓練到最後,基本上連雷達都不需要,只需要攝像頭就好
 當然最後能不能成功就不一定了

Q:特斯拉為何不用光達?

A:自駕的通用解勢必無法使用高精度地圖,
這樣使用光達的意義就不高了

Q:為何只有特斯拉採用視覺處理方案?

A:AI訓練的關鍵就是數據,這是特斯拉最重要最有價值的東西,
 每一輛在路上跑的特斯拉車子,在AP或是FSD控制的期間,
 如果出現人工干預,車子的數據(攝像頭圖片)就會回傳給伺服器,
 工程師再拿這些數據訓練自動駕駛的AI,
這裡的要求就是車子必須時時刻刻聯網,
目前只有特斯拉的車辦的到

Q:其他市售車廠有希望做到LV5自動駕駛嗎? 例如:福特 本田 通用...

A:可以,採用光達+高精度地圖方案
但因為地圖維護成本高
只有局部範圍,例如高速公路上,或是特定城市,可以達成自動駕駛
純視覺方案因為數據來源比特斯拉少很多,AI成長速度勢必追不上特斯拉,
 因為深度學習的演算法並不是秘密,關鍵是數據

Q:特斯拉的車子會越開越聰明嗎?

A:AI訓練是靠超級電腦,並不是靠車上那顆晶片,
 每一輛特斯拉的車子只負責收集數據,
 而訓練好的AI軟體,再靠OTA更新到車上

=====================================================


如果有其他問題,我可以就我了解的補充,

希望可以拋磚引玉讓更多人來討論自動駕駛的未來,

基本上只要在局部區域實現自動駕駛的話,

我認為Waymo的方式更安全也更容易,

馬斯克的野心很大,但是能不能成功很難講

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.15.82 (臺灣)
PTT 網址
※ 編輯: StarburyX (111.249.15.82 臺灣), 03/26/2021 23:49:25

iPadProPlus 03/26 23:54視覺 大數據 5G AI唯一解

同意

focusd 03/27 00:07時常連網連asus都做的到,其他車廠一定追很快。

focusd 03/27 00:09美軍的砲兵車還不是一出門就連網,不然用望遠鏡?

shark157 03/27 00:11追很快你確定?特斯拉都出來幾年了,連網這個部分

shark157 03/27 00:11哪間車廠追上了?更何況特斯拉在被追上的過程累積

shark157 03/27 00:11多少數據了,重點是數據又不是連網能力

EBVirus 03/27 00:16我只知道用來比喻阿呆的AI阿法狗就是google開發的

EBVirus 03/27 00:17然後瞎子的waymo光達 也是google的....自駕誰比較猛

EBVirus 03/27 00:17應該不用說了

這裡的數據是指人為干預電腦時間點資料 究竟為何人要這樣開? 再用這組數據訓練AI 目前的狀況是: 有能力訓練AI的公司沒有造車能力,例如Google,Mobileye 有能力造車蒐集數據卻沒有分析能力,例如傳統車廠 特斯拉是少數具備兩項能力的公司 要蒐集數據勢必車上要有多顆鏡頭(Tesla是八顆) 傳統車廠還沒有這樣的車

magesf 03/27 00:18攝像頭是三小?

DSAndres 03/27 00:24Mobileye現在是鏡頭以後加Lidar。個人認為要追求高

DSAndres 03/27 00:24準確度需要有影像+立體建模。結合兩種參數去判斷才

DSAndres 03/27 00:24真正安全。當然成本會是能否商業化的關鍵,Tesla在

DSAndres 03/27 00:24這方面極具優勢。

同意,在AI成熟前搭配光達是比較安全,偏偏光達目前還太貴

EBVirus 03/27 00:26目前的AI技術對於一些死規則的東西很有用 例如圍棋

EBVirus 03/27 00:27星海的話 也是靠完美操作贏玩家的...現在醫療AI龍頭

EBVirus 03/27 00:28IBM都快玩不下去了...醫療這種病人數據參數很單純的

EBVirus 03/27 00:28AI都有困難了

EBVirus 03/27 00:29Level5 應該還很遠吧...

有夢最美 希望相隨

※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:41:46

focusd 03/27 00:36Mercedes me connect與蔚來都有了,有人在用石器

focusd 03/27 00:44公車也有八顆鏡頭呦

賓士現在也有配備多鏡頭(環繞車身)的車款了嗎?驚! 多鏡頭+時時聯網是蒐集數據的關鍵 中國的造車新勢力真不可小覷 個人認為傳統車廠最後還是會選擇光達方案比較實惠 現在視覺辨識要追上Tesla太難了

※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:48:30

focusd 03/27 00:52http://i.imgur.com/M1rhDaw.jpg

這邊指的是原生整合自車身電腦的鏡頭啦QQ          像指前擋風玻璃上ADAS用的鏡頭 不是這種純粹當行車紀錄器的鏡頭

※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:54:34

focusd 03/27 01:15不過我認同特斯拉的數據累積,其他硬體都可以追

yaritai 03/27 01:33互聯網建立車子間的溝通渠道搭配攝像頭判讀視頻呢

lay10521 03/27 02:33garbage in garbage out

sky2001 03/27 03:09civil maps不是宣稱可以做到低成本且數據量極小的

sky2001 03/27 03:10高精度地圖(絕對精度公分等級) 而且只用Arm cortex

leaveleft 03/27 04:01就成立網路代駕公司啊!車子至少要L2以上,然後聯

leaveleft 03/27 04:01網,有人在遠端幫你操控到目的地...

kuloda 03/27 06:26現在發展自駕車的很多是光達雷達+攝影機

攝影鏡頭一定需要,只靠光達無法辨識紅綠燈          

yytseng 03/27 06:38兩者都會輾過睡在路中的狗,然後去下跪

yytseng 03/27 06:42可見光鏡頭限制太多,尤其是高對比狀況,瞬間變瞎子

focusd 03/27 06:49沒事,現在都休旅車。把底盤做高一點,讓狗死不了

lovedog0731 03/27 08:07馬斯克開大絕:辨識waymo的車並跟在其後。不用閃過危

lovedog0731 03/27 08:07險,只要閃過撞毀的waymo就夠

asdhse 03/27 08:33視覺辨識加光達才是最佳解

這邊提一下特斯拉跟其他車廠(福特 賓士..等)的ADAS系統有一個決定性的差異

靠視覺辨識為主的話特斯拉可以偵測不會移動的車輛

市售車廠是靠雷達偵測前方,會直接忽略靜止停等的車輛 要上到光達且具有足夠的算力才能處理靜止車輛

※ 編輯: StarburyX (111.249.120.185 臺灣), 03/27/2021 09:16:45

MacD89 03/27 09:56所以在馬路上睡覺的橫躺白色貨車就是不講武德...

neverfly 03/27 11:04結果還是撞上靜止貨櫃了

DSAndres 03/27 11:15視覺辨識如果是AI學習後只讓單機對實時影像做局部

DSAndres 03/27 11:15特徵值判斷,難保不會有誤判情形。人類判斷是透過

DSAndres 03/27 11:15幾十年生活經驗建立物體的立體構造認識,像是立體

DSAndres 03/27 11:15圖庫,移動的裝置要做到這樣,應該不能只學習路面

DSAndres 03/27 11:15的圖像。

hg32658 03/27 12:12請一個專業司機

XXPLUS 03/27 12:15看到蔡英文或尤達大師不是都應該做一樣的反應嗎?

YJM1106 03/27 13:09說靜止物人類其實也一樣,在晚上的高速公路上 你不

YJM1106 03/27 13:09會因為隱約看到什麼東西就踩死煞車 會到真的看見物

YJM1106 03/27 13:09體輪廓才有反應

KBchen 03/27 13:11補充一下:特斯拉不用光達也因為體積大跟成本高

kazami 03/27 13:26我覺得LV5最大的問題在於自駕開啟的時候車禍賠償

kazami 03/27 13:26責任歸屬,如果歸屬於車廠,那跳脫率或車禍率要夠

kazami 03/27 13:26低,低到車廠認為能夠負擔這成本,(即便是有保險

kazami 03/27 13:26也可能導致保費大增而影響消費者購買意願), 而以

kazami 03/27 13:26特斯拉現在只靠鏡頭攝影做AI視覺辨識,技術上是不

kazami 03/27 13:26太可能讓跳脫率或車禍率低到他們認為能夠承擔LV5

kazami 03/27 13:27可能增加的成本,而這也不是說你數據一直增加就可

kazami 03/27 13:27能讓跳脫率無限的逼近0,可能等車子互相會溝通後

kazami 03/27 13:27還比較有機會

kazami 03/27 13:35在醫學診斷上也有類似的問題,今天誤診責任還是在

kazami 03/27 13:35醫院,沒有廠商敢阿沙力說他的AI誤診他負責,這樣

kazami 03/27 13:35子就注定AI只能用來輔助而已。

birdskingla 03/27 13:39目標價多少辣 講出乃

darkdogoblin03/27 15:18應該買車時就會有但書,輔助駕駛風險自負

s70160 03/27 21:08目前使用Openpilot 採用雷達+vision 做縱向處理...

s70160 03/27 21:08前方有靜止車輛確實可以100%停止!

heacoun 03/27 21:22攝影鏡頭,什麼攝像頭。

francej 03/27 22:00事實上人也分很多等級 從 三寶 到 F1職業車手

francej 03/27 22:01三寶開車 看到白色橫躺貨車 搞不好也是直直撞上去

wellkom 03/27 22:06三寶開,就算是正常行駛的也是用力幹下去啦

chandler022703/28 22:59局部範圍就不叫Lv5好嘛.....定義看清楚

chandler022703/28 23:01單一系統感知有侷限 所以主流才搞Lidar+視覺+雷達啊

chandler022703/28 23:03Tesla問題在視覺無法正確感知下沒有別套方案cover啊

chandler022703/28 23:07而且高精地圖中沒有移動人車,lidar也能夠正確感知

chandler022703/28 23:10判斷人車上,lidar是很明確知道有物體在那,vision

chandler022703/28 23:12是依每個成像再經訓練(深度學習)辨識出人車