PTT推薦

Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好

看板car標題Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好作者
ykjiang
(York)
時間推噓 3 推:3 噓:0 →:7

※ 引述《ewings (火星人當研究生)》之銘言:
: ※ 引述《ykjiang (York)》之銘言:
: : 從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊
: : 三維的部分是經過一些設計、運算後得到的
: : 反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊,
: 這邊看完,我的感想只有“供三小?”
: 雷達與光達在原理上是利用掃描的方式,取得距離與向量,本質上資料的維度就是大於二維了。
: 是什麼時候變一維的?如果要這麼瞎扯,那鏡頭裡的CMOS一次也只能讀一個cell的資料,: 一樣得要逐個掃描才能得到二維影像(這個就是所謂的果凍效應的成因),
: 照你的說法,鏡頭不也一樣是一維的?

雷達基本上是機械動作在掃描
初代的光達也一樣,最新的發展小型化後,有搞陣列方式同時發射好幾組雷射,不過
解析度還是個問題

你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體,
從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。


: : 特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測)
: 這邊也不知道在供三小
: 在半個世紀前,雷達後處理技術就已經發展出利用比對前後時間目標的變化,預測目標未來位置,
: 並且持續追蹤的技術。甚至還有類似合成孔徑雷達(SAR)那種利用時間與位移積分,: 利用二維掃描形成3維雷達影像的技術。
: 而利用都卜勒濾波技術,甚至不需要比對前後時間的資料,就能直接得到目標的速度,: 在半個世紀前,雷達就能直接利用都卜勒測速,外插推估目標的未來位置。
: 但也沒人講雷達是四維資料的探測器。

你可以搜尋一下,有人就說這個是 4D 雷達


: 而特斯拉的前鏡頭並沒有構成立體視覺,就算加上時間預測,也只能構成2.5D,

去年 10 推出的 FSD Beta 8.1 跟今年三月的 FSD Beta 8.2 已經有立體視覺
預計四月(如果沒延期的話)推出的 FSD Beta 9 會是 Musk 說的 4D 視覺


: (三個定焦鏡只能利用影像模糊的程度大致判斷距離),這也是特斯拉自動駕駛在視覺深度一直為人所詬病的地方。
: : 以目前的技術:
: : 距離方面,光達的精度比較高
: : 平面部分,鏡頭的精度較高,然後鏡頭還可以判斷顏色這個重要資訊
: : 以自動駕駛而言,兩者的精度都超過人眼了
: : 所以關鍵還是在 AI 等其他方面
: 無腦特粉才會覺得只靠鏡頭和AI就行
: 真的在搞自動駕駛的,在研究的是怎麼做多感測器的融合。
: https://global.kyocera.com/ces/img/sensing-technology/sec11_img03.jpg

圖 特斯拉FSD beta  來比眼力有沒有比AI好
: 像是直接將光達和攝影機做成同一個感測器,就是其中一個方向。

就算如後面推文你說的,特斯拉前向三個鏡頭是不同測交距離的鏡頭,搞不出立體視覺
但你忽略了特斯拉側前方還有兩個前向鏡頭,是完全對稱的測焦距離是一樣的80M以內



--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.105.112.74 (臺灣)
PTT 網址
※ 編輯: ykjiang (59.105.112.74 臺灣), 04/09/2021 03:57:05

ykjiang 04/09 05:08已回到原PO推文,Tesla主要靠前向三個鏡頭估算距離

ykjiang 04/09 05:12原理上任兩個鏡頭拍同一物體呈現不同位置或大小即可

ykjiang 04/09 05:13即可估算出距離

bluemkevin 04/09 09:23vADAS 有些潛在開發廠商,但是傳統車廠不太敢全壓vA

bluemkevin 04/09 09:23DAS

spinnerl 04/09 16:33隨AI進步多鏡頭可以做更多事情 但也別忽略latency

spinnerl 04/09 16:343D sensing可以直接得到深度raw data是其優勢

ykjiang 04/09 17:42latency應該都有吧,以目前的原理,

ykjiang 04/09 17:43就看這latency是發生在sensor段,還是CPU/GPU段

bluemkevin 04/10 10:12不只CPU,GPU,前置ISP也有latency