Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好
從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊
三維的部分是經過一些設計、運算後得到的
反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊,
特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測)
以目前的技術:
距離方面,光達的精度比較高
平面部分,鏡頭的精度較高,然後鏡頭還可以判斷顏色這個重要資訊
以自動駕駛而言,兩者的精度都超過人眼了
所以關鍵還是在 AI 等其他方面
※ 引述《airforce1101 (我不宅)》之銘言:
: 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來: 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻: 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目: 標,可以帶回更高精度的資訊。
: 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著: 的這篇文章 Extended object tracking: Introduction, overview, and application.: 在AI輔助下,或許環境良好下影像能做到光達能大多數能做的事,但某些判斷影像與光達: 先天上的差距還是存在。
: 其實也好奇,傳感器與影像間的關聯是否讓AI找出並學習其特徵向量,有待高手解答了。
--
感測能力比人眼好沒問題,但感知就.....
我想你想說的是識別吧
偵測好不代表識別好
識別識別靠的就是後級計算能力
個人認為難在快速的識別
英文sensing(感測)和perception(感知)
攝像頭?那是三小?
鏡頭能到這樣也很屌
二維得到三維這說法有點怪
特黑不用謝
三維包含二維資訊,二維包含三維資訊嗎?
airforce1101跟人眼立體視覺類似原理,利用視差估算
攝像頭
這樣還是算三維嗎?是因為時間讓都是二維的數據
有了差值變化,沒有惡意,單純想求知,感謝。
光達都能把原本的測距功能經過巧妙設計變三維了
二維要變三維怎麼會有困難,看設計跟運算而已
講精度很像對岸影片硬是要提些什麼,然後根本廢話。
理論上光達速度可以比影像快,在於回來的光向量變
化,比影像變化的多
你鏡頭解析度超過人眼?還是算距離比較厲害?
這個向量的變化就是物理上的資訊了。
人類那麼不堪的話就別開車了吧,哈哈
要像人一樣的感測 你不如擺個人上去還比較便宜(x
靠精度就能開車,那就更別提了
延展性目標講的就是這向量的變化
特斯拉向前的鏡頭有三個,斜前方兩個,平行輸入
原理上應該比多數(便宜)的光達快
用不同原理的偵測系統是為了Double check避免誤判
否則十幾年前的車就有雷達測距但只警示不直接介入
而AI需要大量數據資料學習,特斯拉就是目前絕對領
先者
人眼的解析度其實不高,但人眼會跳動,眼珠會轉...
人眼就中央清楚,周邊模糊,所以要靠其他方式補足
這篇正解 完全說出特斯拉目前的使用方法 讚
其他方面來說,特斯拉專注在深度學習等AI 部分
其他牌比較偏向拿高精地圖補足,AI就沒那麼用力發展
人厲害的不是眼睛 是頭腦 (三寶除外)
什麼都用當然最強,但時間技術等成本差異不同,
就有不同取捨
有人不喜歡「攝像頭」,我改成「鏡頭」了
雖然我個人覺得「攝像頭」這個用詞比較傳神
今天統聯去撞機車地下道 我很好奇 自動駕駛可以避免
這種開錯車道高度差嗎 如果要做到應該從哪下手
高精度地圖
車頭頂部裝個可以觸發aeb的玩意就可以了吧
日本那個監控司機的設計可以拿來用,既使沒自駕
確保司機有看路,再加上疲勞偵測等等的
3
笑死,你又把你自己的妄想拿來當證據了,啥“初代光達”! 20年前,連名稱都還沒統一叫Lidar時,就已經在研究使用光電感測器陣列直接生成三維影像了, 一開始研究光達的時候,就有人從雷射全像技術出發,從來沒有你想像的“一維”Lidar : : : 你講的應該是 Rolling Shutter 造成的果凍效應,7
提到光達,沒有人會扯到雷射全像術吧 維基百科介紹 LiDAR 原理時附的動畫如下: Velodyne 出的,早期被用於電動車的 LiDAR ,Waymo 還在用的,結構如下:1
笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。 如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三維資料的技術。 對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維, 有差別的只是更新率而已。 而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。6
我沒說光達最後的輸出資料不是三維,我只是說初代的光達是用一維的雷射測距,經巧 妙設計後得到三維的資料 : : 你講的應該是 Rolling Shutter 造成的果凍效應, : : CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等 : : CMOS 後來也有 Global Shutter 的設計2
OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收 這部分跟光達有差異。 : : 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體, : : 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。 : 這邊也是看不懂你在講三小11
這邊看完,我的感想只有“供三小?” 雷達與光達在原理上是利用掃描的方式,取得距離與向量,本質上資料的維度就是大於二維了。 是什麼時候變一維的?如果要這麼瞎扯,那鏡頭裡的CMOS一次也只能讀一個cell的資料, 一樣得要逐個掃描才能得到二維影像(這個就是所謂的果凍效應的成因), 照你的說法,鏡頭不也一樣是一維的?3
雷達基本上是機械動作在掃描 初代的光達也一樣,最新的發展小型化後,有搞陣列方式同時發射好幾組雷射,不過 解析度還是個問題 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體, 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。1
還是不曉得你在供三小 從雷達誕生以來,也從來沒出現過你口中的“一維”雷達 拿二戰裡的德國Lichtenstein雷達來說好了,雷達發射天線是固定在飛機的機首, 也沒有任何的機械機構讓天線搖動或轉動。7
直接看實際例子不就好了 在機車海的國家打開FSD 都能正常自輔駕 實際例子有什麼還能質疑的嗎9
目前應用的雷達跟光達在量測數據上還是有些不同 [雷達] 參考這篇文章
18
[分享] 特斯拉FSD beta 來比眼力有沒有比AI好這個youtuber將FSD AI看到的畫面結合實際行車畫面 有幾個亮點, 你去觀察對向車道,或是更遠處都可以發現AI都可以清楚知道車子位置在哪 換句話說,FSD用了鏡頭就可以模擬光達的距離偵測了 這個技術已經被特斯拉提出為專利25
Re: [新聞] 特斯拉下個版本FSD接近完成最終不需雷達話說這是大概1個月前Musk的推特內容 新聞跟原PO也lag太久..... 推特短短幾行,報導還可以寫這麼多也是不容易 然後更有趣的一點 一邊說使用pure vision,一邊把不專注路況的FSD beta車主排除在外唷XD3
Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好關於對車輛周遭環境的判別討論還不錯, 但是自動駕駛的進步還有一個關鍵就是駕駛行為, 何時該轉彎?如何轉彎?路口可以往前嚕一點再轉嗎?等等 參考影片: (看看特斯拉如何處理越過多線道左轉)- 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目 標,可以帶回更高精度的資訊。 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著
44
[問題] CC 和HRV 選擇9
[閒聊]雖小尬!!馬2今天降價9萬我明天要交車X
Re: [新聞] 工程做一半?台中女駕駛「切西瓜」騎上2
[問題] 輪框邊上的異物X
Re: [問題] CC 和HRV 選擇15
[情報] Rolls-Royce Cullinan可能搭載H3
[問題] 轉速表有沒有可能是快樂錶?15
[問題] 汽車有衝壓進氣的設計嗎?3
Re: [新聞] 宛如科幻小說 馬斯克的未來地底隧道亮相