Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好
※ 引述《ykjiang (York)》之銘言:
: ※ 引述《ewings (火星人當研究生)》之銘言:
: : ※ 引述《ykjiang (York)》之銘言:
: : : OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收: : : 這部分跟光達有差異。
: : 笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。
: : 如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三: 維資料的技術。
: : 對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維,: : 有差別的只是更新率而已。
: : 而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。
: 我沒說光達最後的輸出資料不是三維,我只是說初代的光達是用一維的雷射測距,經巧: 妙設計後得到三維的資料
笑死,你又把你自己的妄想拿來當證據了,啥“初代光達”!
20年前,連名稱都還沒統一叫Lidar時,就已經在研究使用光電感測器陣列直接生成三維影像了,
一開始研究光達的時候,就有人從雷射全像技術出發,從來沒有你想像的“一維”Lidar
: : : 你講的應該是 Rolling Shutter 造成的果凍效應,
: : : CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等: : : CMOS 後來也有 Global Shutter 的設計
: : : Rolling Shutter 是同時一排 cell 曝光(不算逐個 cell,硬要挑的話)
: : : Global Shutter 是全部的 cell 一起曝光
: : : 至於 CCD 是採用 Global Shutter 的設計
: : : 你說的為了輸出 NTSC/PAL 逐個 cell 掃描,是發生在後段處理上
: : 笑死,再掰嘛
: : 特斯拉用的就是CMOS影像感測器,照你的講法,那也是一維的。
: : 現在不管是哪種攝影機,都是輸出序列訊號,不管是用rolling還是globe shutter,: : 都是一個一個cell的資料丟到暫存器,再以一維資料格式(NTSC)輸出
: 這部分也是,我一開始表達的也是 camera 的感測元件一開始就是二維的 cell 陣列
: 一個 cell 一個 cell 讀是你要抬槓,才提出來的,然後你還提了果凍效應佐證。
: 另外,camera 一般內部有 buffer 儲存完整的 2D data
: 輸出時才用你說的 NTSC 序列輸出,NTSC 基本上是舊時 TV 格式,高解析度的 camera: 不用這種輸出格式了。而且 NTSC 還有奇偶交錯的問題,在處理上容易碰到另一種跟果: 凍效應有點類似的問題,不過這也扯遠了。
: 其餘的輸出格式還有很多,也是各種取捨,不再贅述。
總歸來說,就是你自己鬼扯說啥“一維”的鬼東西,結果,CMOS的工作原理打你的臉罷了。
CMOS要在每一個cell就將電荷轉換為電壓,就注定只能逐個掃描讀取,
就剛好打臉你所謂“光達是一維,而攝影機不是”的蠢說法
: : : 1__2_.5e834778af184.png
: : : 80m鏡頭,我是敲「側」前方的兩個前向鏡頭,不是敲(正)前向鏡頭
: : : 而且這已經不是重點了,
: : : 如之前推文說的,特斯拉 3D 視覺,主要是靠正前方那三個鏡頭
: : : 基本上沒側前方那兩個鏡頭的事了
: : 別搞笑了
: : 特斯拉的三個鏡頭焦距相差那麼多,說能構成視覺深度,是你在幻想吧
: : iphone手機上面有兩到三顆鏡頭,但是還不是乖乖的上Lidar?
: : 不同焦段的鏡頭,物體的影像在鏡頭內的像素差距非常大,光是判斷是不是同一個物體: 都要消耗不少演算力了,
: : 還妄想能構成深度視覺?
: : 更別提特斯拉用的還是非常悲劇的1.2M像素鏡頭。如果像NIO用的是8M的,還勉強有點: 機會構成2.5D
: : 如果兩個焦段差那麼多的鏡頭就能構成深度視覺,你都可以去apple總部前面嗆他們白: 癡才要額外用Lidar了。
: 我不確定你說的 2.5D 多出的那 0.5D 指的是什麼
笑死,連2.5D都沒聽過,那你是要啥資格在前面鬼扯深度視覺的東西?
第三維的資料精度只能當參考用,統計學上達不到七成的可靠度,就只配用0.5D
: 不過前面推文中也有人給連結了,證明一個攝像頭就能測得深度,多個攝像頭更準確。
證明啥?證明用Lidar的apple公司是傻子,你才是天才?
要用偽測距騙這種傻瓜特教教徒還不簡單?
直接假設路人的身高是170公分,再用攝影機焦距和像素高度換算,就得到偽測距了,
這個方式在100年前就出現了,像狙擊鏡上面就有刻度讓射手可以用人當參考物,粗略的估算距離。
但是如果路人身高不到150,又恰巧特別瘦,或是行進間突然彎腰,使像素高度變化率大幅改變,
讓偽測距出現很高的誤差怎麼辦?
你以為特斯拉之前出包,撞上橫躺地上的貨車、撞上等等紅燈的機車的事件是怎麼來的?
AI再怎麼訓練,還是會有大數據資料沒涵蓋到的少數情況。當自駕車數量增加至上千萬輛時就算這些少數情況發生機率再低,在這麼大的母體數量下,發生次數也會變得很高。
所以對自駕系統真正負責任的公司,才會用光達等可以真測距的感測器來設計。
: 因為車子行進間可以拍很多個對同一物體不同距離下的 frame
: 至於特斯拉是怎麼辦到的細節部分,我不知道,唯一確定的要耗費很多算力,
: 連結如下:
: 《Autopilot》AK談論AP開發細節 (2020/02)
: https://www.mobile01.com/topicdetail.php?f=741&t=6137451
: 《Autopilot》FSD初探25-遮住鏡頭還能在路口轉彎嗎?
: https://www.mobile01.com/topicdetail.php?f=741&t=6246238
--
亂餵流浪狗的人其實和渣男沒什麼兩樣
一個是讓狗以為自己是有主人的狗,一個是讓人以為感情有了歸宿
但都只是做半套不想完全負責而已
--
CMOS sensor 接觸到的都是逐行送出資料。
車用的也是
純影像我覺得至少可以判斷自己有沒有碰到啦,但要去
提前推估距離或深度到很準,我覺得就有點難了,不要
說機器,網路上一些誤導是立體的圖片人自己肉眼都很
難判斷了吧,機器光用影像怎麼可能就可以解決==還是
要結合別的傳感器啦
coms是循序讀取,先放在暫存器中,後面才是你看到的
逐行輸出。基本上還是延續過去電視機的線掃描原理。
撞貨車的是AP不是FSD 撞機車的沒開AP 搞清楚再來...
笑死,你是特黑吧?連ACC都要測距了,你這樣講就是
特斯拉黑心,AP都不測距的?
喔 你比Elon更懂摟 請問現在哪裡高就?
是世界自駕系統權威 還是計畫主持人?
又有一個傻瓜特教教徒自以為比apple公司厲害??
可憐 特黑沒本事 也只能在這裡發文該該叫
這麼強 怎不發篇世界級自駕論文
以自己貧弱的知識 還不知道自己丟人現眼
我想要比elon懂的人很多吧 他只是個CEO, 能有多少
Elone Musk成功的關鍵在於他能把失敗視為工程改進上的大收穫 像最近SN-8~11全炸了,但是他眼睛也不眨一下。 問題在於你要不要當他的白老鼠.....
時間去碰觸這塊 難道你覺得庫克就很懂apple雙鏡頭
三鏡頭運作原理跟細節嗎?
笑死,傻瓜特教教徒怎麼不先去SAE門口叫囂說特教FSD
神器居然只拿到level2?
目前以循序讀取大宗,所以我不知道他到底要表達什麼
即使是同時曝一整張圖,讀取還是得逐序,感測器不可
能同時讀一整張圖跟倒一整張圖出來。
其實真的要說,現在的電子掃描雷達天線,因為使用MIMO的設計,還稍微比較有跳脫循序掃描的感覺
※ 編輯: ewings (42.72.200.47 臺灣), 04/10/2021 14:14:47一次要倒一張圖也可以,備夠大的記憶體,單一圖點10
bit數,整張圖是很可觀的數量級。
最後輸出的當然序列的,其他數位裝置也一樣,省接線
果凍效應跟最後輸出的介面無關,是曝光順序
相關細節可以參考 CMOS Image sensor 的原理介紹
sensor內會備有記憶體,因為要達到real-time,現行
的大量儲存裝置都不合適,因此備的幾乎是SRAM,但SR
AM不會備到整張圖的大小,因為真實還是得依序讀取An
alog的值。
現在是誰在叫囂 你怎麼不去特斯拉門口靠北 我自己
很屌 你們都廢物 沒我懂
特斯拉自駕部門leader是業界權威 你???天橋底下
說書都比你行 臉皮還超厚 被打臉還不覺悟
整天被打臉還一直開文章 特黑都這副德性
SRAM 太貴,當然能省就省,只要備到能趕上輸出即可
不懂就虛心請教很難 人家y大也是很客氣回覆討論
global shutter 類似先把資訊鎖在浮閘內,再讀出,
但讀還是得依序讀。
就你自以為 比世界最先進自駕公司之一還屌 臉皮厚
成這樣
再更以前,資訊無法鎖住,就只能要讀到記憶體前感應
。
原來是存在浮閘,類似flash,果然工程師都很會省
不過浮閘也算記憶元件,原理跟SRAM不同就是
其實也不是省的問題,是效果好太多,成本應該比較高
,不過我大概知道y大和e大哪裡認知不一樣了。
Sorry剛剛去翻一下,Global shutter不是用浮閘鎖資
料,更正一下。
沒差,工程的問題,就效果跟成本的拉鋸
快來看 其他車廠救世神在這
這一串看下來 高下立判了
電動車 apple no.1 tesla no.2
Lidar也是有難辨識的狀況,就各有有缺
Global shutter硬傷是速度沒rolling快啊
7
提到光達,沒有人會扯到雷射全像術吧 維基百科介紹 LiDAR 原理時附的動畫如下: Velodyne 出的,早期被用於電動車的 LiDAR ,Waymo 還在用的,結構如下:1
笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。 如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三維資料的技術。 對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維, 有差別的只是更新率而已。 而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。6
我沒說光達最後的輸出資料不是三維,我只是說初代的光達是用一維的雷射測距,經巧 妙設計後得到三維的資料 : : 你講的應該是 Rolling Shutter 造成的果凍效應, : : CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等 : : CMOS 後來也有 Global Shutter 的設計2
OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收 這部分跟光達有差異。 : : 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體, : : 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。 : 這邊也是看不懂你在講三小11
這邊看完,我的感想只有“供三小?” 雷達與光達在原理上是利用掃描的方式,取得距離與向量,本質上資料的維度就是大於二維了。 是什麼時候變一維的?如果要這麼瞎扯,那鏡頭裡的CMOS一次也只能讀一個cell的資料, 一樣得要逐個掃描才能得到二維影像(這個就是所謂的果凍效應的成因), 照你的說法,鏡頭不也一樣是一維的?3
雷達基本上是機械動作在掃描 初代的光達也一樣,最新的發展小型化後,有搞陣列方式同時發射好幾組雷射,不過 解析度還是個問題 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體, 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。1
還是不曉得你在供三小 從雷達誕生以來,也從來沒出現過你口中的“一維”雷達 拿二戰裡的德國Lichtenstein雷達來說好了,雷達發射天線是固定在飛機的機首, 也沒有任何的機械機構讓天線搖動或轉動。7
直接看實際例子不就好了 在機車海的國家打開FSD 都能正常自輔駕 實際例子有什麼還能質疑的嗎9
目前應用的雷達跟光達在量測數據上還是有些不同 [雷達] 參考這篇文章18
首Po這個youtuber將FSD AI看到的畫面結合實際行車畫面 有幾個亮點, 你去觀察對向車道,或是更遠處都可以發現AI都可以清楚知道車子位置在哪 換句話說,FSD用了鏡頭就可以模擬光達的距離偵測了 這個技術已經被特斯拉提出為專利
32
Re: [新聞] 尺可以丟了! iPhone 12 Pro隱藏版功能幫你量身高原篇很多留言說 『早就有了』 其實是錯誤 這次iphone Pro的『光學雷達掃描儀』 跟iPad pro應該是同一個 注意25
Re: [新聞] 特斯拉下個版本FSD接近完成最終不需雷達話說這是大概1個月前Musk的推特內容 新聞跟原PO也lag太久..... 推特短短幾行,報導還可以寫這麼多也是不容易 然後更有趣的一點 一邊說使用pure vision,一邊把不專注路況的FSD beta車主排除在外唷XD11
Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊 三維的部分是經過一些設計、運算後得到的 反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊, 特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測) 以目前的技術:
47
[問題] 機油要一年一換嗎?29
[情報] 輕型車Citroen Ami (mobile01)10
[閒聊] 台灣車評是不是完全不行28
[閒聊] 監理所隔熱紙調查1
[問題] 換完煞車油收費是否合理?8
Re: [閒聊] 監理所隔熱紙調查5
[問題] 2016年1月Yaris 四速變速箱油更換5
Re: [討論] 這種窄度大家覺得過得去嗎?4
[問題] 乙式車險保單請益5
[問題] 副駕駛座的遮陽板上的警告貼紙 可以撕掉?4
[問題] uTagGo跟車麻吉Autopass4
Re: [菜單] Toyota Rav44
Re: [閒聊] 台灣車評是不是完全不行3
[閒聊] 美國消防隊這麼強勢消防通道喔?!2
[問題] 第二台車的選擇...1
Re: [閒聊] 台灣車評是不是完全不行15
[情報] Rolls-Royce Cullinan可能搭載H3
[問題] 轉速表有沒有可能是快樂錶?15
[問題] 汽車有衝壓進氣的設計嗎?3
Re: [新聞] 宛如科幻小說 馬斯克的未來地底隧道亮相