Re: [閒聊] 在台灣,特斯拉的先進安全輔助還有優勢嗎
想簡單閒聊一下關於特斯拉的科技部分....
本身工作是寫code相關,加上有涉及到AI的相關領域....老實說我覺得特斯拉的輔助駕駛和FSD是真的蠻厲害的。
當大部分傳統車廠都還在依賴雷達等sensor來實現輔助駕駛,特斯拉早早就投入純視覺的發展,是真的很大膽也很令人驚艷。
先簡單說說我認為純視覺的優勢:
1. 極低的成本,
- 不需要額外雷達和感應器,只要有足夠數量的鏡頭即可。
- 沒有其他感應裝置,也意味著不需要考慮後續感應裝置的維護或更換成本。
- 站在工程師的角度,沒有感應器等於少了一個要考慮的變數,其實程式判斷寫起來應該會比較容易。
EX. 其他車廠即便是用感應器,也是需要搭配鏡頭的,如果這時候鏡頭和感應器的判斷互相衝突,此時要怎麼讓系統去判斷要相信哪個? 這其實是大大增加了整個程式模型的複雜性。
2. 具有很高的可應用性和規模性 (這部分比較偏向FSD,跟單純輔助駕駛關聯較低)
- 特斯拉的純視覺+AI模型,我認為當此技術未來成熟之後,是可以隨時隨地應用在任何地方的,包括未知的地區和星球XD。
講到FSD,身為科技宅的我也一直有在追蹤,先來看看特斯拉近期財報中提到其算力中心使用NVDA的GPU (H100)的數量圖變化:
https://imgur.com/8u6fqdB
可以看到在2024年,特斯拉的AI算力是爆發式的增長,這跟算力中心算力的提升曲線幾乎相符,也能看到從FSD V12.3~V12.5.X之間,其表現能力也是跟隨算力的提升有飛躍性的增長表現。
雖然官方沒有公布FSD的數據,但根據國外某個知名的民間FSD統計數據網站,整個FSD V12.X的平均表現是大約320公里才需要干預一次,這跟以前的V11版本比起來是整整進步了一倍。
如果細看到V12.5的話,幾乎是將近600公里才需要駕駛介入一次。更別說,特斯拉的AI模型還在日以繼夜的訓練當中,我覺得未來FSD的成長只會越來越快,可能會超乎我們的想像。
(應該說所有AI模型的訓練速度在未來會是我們難以想像的....)
網址 >> https://teslafsdtracker.com/
但FSD近期成長這麼快,是否已經離全自動駕駛不遠了? 我自己是覺得還沒那麼快就是,但照其AI的成長速度,應該也不會等太久。
必須說目前的表現跟Waymo比起來還是有些差距....
但從營運角度來看,一台Waymo的成本好像是30萬美元上下,假如每公里營利1美元,那就是說一台waymo的車必須跑30萬公里以上才能回本。
而特斯拉的FSD成本並沒有像Waymo那麼高(畢竟只有鏡頭...),只要FSD繼續進步,那麼未來無人計程車這個商機勢必會轉而跑到FSD這邊。
另外,還有一點就是Waymo還必須依賴高精細的地圖,這就使的Waymo難以快速規模化進而拓展到整個美國...
但是FSD並沒有這個顧慮,這也是我為什麼覺得FSD在規模化上有很大的優勢XD
雖然車版好像沒啥人在討論車用AI這塊,但我覺得車子幾乎確定是未來AI浪潮下...首當其中的載體之一。
AI和自動駕駛對於未來的汽車絕對會影響非常大,許多傳統車廠如果沒有跟上這波趨勢,我覺得可能會受到很大的影響...
不知道有沒有離題太多XD...回到原文的輔助駕駛本身,家裡有一台歪L和一台M3,我個人是覺得兩台車其基本的跟車和定速功能在高速公路的表現上其實不會相差太多....
但是必須說特斯拉輔助駕駛的加速和減速是感覺比較接近像是人在操控一樣的感覺。
--
Good
不知道現在有沒有基於光達或毫米波雷達的AI,之後發
展前景會不會比純視覺來得好
業內做ai自駕沒有不佩服特斯拉的,通常只有業外裝內行
特斯拉H100多到蓋工廠來放了...
是蠻厲害的 所以台灣可以用FSD了嗎?
四樓在說啥,業內人士明明就嗤之以鼻
純視覺? S跟X的鳳凰雷達是?
我記憶沒錯的話 S和X的鳳凰雷達是緊急備用的 就是當鏡頭有異常或損毀時 系統會緊急調用雷達來支援
Dojo勒?
Dojo一直有在參與計算 但特斯拉也有買NVDA的晶片來協助運算 下一代Dojo晶片應該年底或明年會投產吧 算力不知道會提升多少就是
M大說得沒錯,我是覺得這心態..
自駕剩特斯拉跟華為而已吧,很多都要放棄了,太不切實際
。
其他車廠有沒有放棄 我是不清楚 但自動駕駛應該八九不離十會影響未來車企的價值 那放棄的車廠只能等著選用第三方的來使用了 可能未來就會看到傳統車廠開始用特斯拉的車用軟體或是AI也說不定 對於像電影那樣 未來各種智能車子在路上跑的畫面 已經不是遙不可及 可能有生之年是能看到的。
一般消費者看的是結果欸 lv2使用體驗差不多的話 特優
勢在哪?
單純比較單純的跟車、定速這類輔助駕駛的話 確實差不多 畢竟封閉路段的模型並不會那麼複雜
成本變低也沒有比較便宜XD
使用體驗有差不多?
台灣的話沒差很多吧
一樣是封閉道路才能用啊
FSD的話是能用在非封閉路段 當然也要通過政府監管機關的監督審核才能上路 聽說歐洲跟中國年底前也要開放FSD 台灣的話....看看2~3年內有沒有機會吧
我記得之前也是有人特斯拉跟其他車兩台,使用體驗跟這篇
一樣差不了多少,有人還覺得tesla在加速比較快反而不喜
感謝分享
在台灣小贏而已,畢竟功能根本沒打開
重點感是敢敢說出事負責 不然永遠都是不是自動駕駛
根本不配叫自動駕駛
自燃都不肯負責,那自駕怎麼負責?
講影像方案感測器資料會不衝突不知道是在講三小,特斯拉自
己的純視覺方案,長短焦兩個鏡頭的資料一樣要做數據融合,
視覺資料融合並沒有比光達-視覺融合簡單
也要考慮AI是否容易學習 AI去判斷純視覺絕對比去判斷雷達+視覺要容易的多 特斯拉就是選擇純視覺 並試圖讓AI自己去學習到如火純精
講那麼多 台灣就沒什麼差啊
沒雷達是缺點捏
誰和你講對AI來說雷達+視覺會比兩個視覺的資料融合難?你
自己想的?就算是更老的機械學習,面對有深度資訊的雷達+
影像的資料融合,難度也比沒有深度的純視覺長短焦雙鏡頭簡
單。
雷達+視覺 也沒那麼簡單的,何況雷達也有分成雷射雷達跟毫米波雷達..而且在雷達波長的感應下,應該金屬以外的東西都是半透明的,這跟鏡頭的視覺感知是不一樣的,這時候AI要採信哪一個本身就是一個議題。特斯拉選擇的是把分析雷達的精力放到視覺處理上面,而不是兩邊都處理...因為他們認為鏡頭的每秒位元資料量比雷達高出好幾個數量級,隨著視覺處理能力的提高,要跟雷達整合起來只會越來越不容易。
誰和你講非金屬在毫米波雷達下是半透明的?你到底懂不懂汽
車的感測元件啊?不懂就別出來瞎吹
講雷達和視覺會讓電腦不知道處理哪個?你在講什麼笑話啊?
你怎麼不講長短焦雙鏡頭出來的視覺訊號會讓電腦不知道要處
理哪個?
只要是多感測器,都需要做感測器間的校準與資訊融合,雙鏡
頭一樣得要做,而且還比雷達+鏡頭間的校驗還麻煩,消耗的
算力更多。
不懂硬體就別出來瞎吹
搜嘎....長知識了,感謝指教,硬體部分確實沒了解那麼多,這樣的話就表示特斯拉確實是用超乎我想像的海量數據來彌補精準度上的誤差了,這算力真誇張
FSD在台灣為什麼不能用呢?因為他會把機車直接撞下去
誰和你講FSD有克服純視覺精度上的誤差了?特斯拉才剛又把4
D毫米波雷達裝回4代自駕平台而已。
啊? 我沒有說克服阿 我是指它是用海量視覺數據來彌補少了雷達 所帶來的誤差 我當然也知道他們在新的自駕平台重新裝了4D毫米波雷達 但他們仍然是以純視覺AI運算為主
特斯拉要用上AI,那表示純視覺方案的演算法更麻煩,和你自
己幻想會更簡單的情況完全相反。
不見得更麻煩才對,即便是Waymo也是有用上AI才能實現全自動駕駛,它們共同點都是使用端到端的AI自駕技術,在程式架構上端到端是沒有module的概念,不需要工程師寫出海量的代碼,完全是靠AI透過感知器進來的訊息自己去認識和學習並生成代碼...
你幹嘛要跟一個明顯外行的人講ML
底層邏輯更複雜的東西,你覺得可以丟給AI所以不會更麻煩?
那以後你活該成為被AI取代的碼農吧…..付你薪水還不如拿去
買nvidia運算卡。
就是因為底層邏輯複雜才更需要端到端這種生成式AI阿... 路上狀況千變萬化,單純只靠人工撰寫底層代碼和邏輯是永遠沒辦法conver全部的 而且當代碼越來越多,整個要maintain是會越來越困難的,所以業界才會開始有端到端的AI自駕方案的出現,這不僅簡化了整體代碼的數量並降低了複雜度。像是特斯拉轉成端到端後,代碼也從原本30萬行減少到幾千行,剩下的就是靠AI自己去學習,只要學習的數據量夠大,自駕技術就會越來越成熟,從V12換到端到端後,整體的大幅度進步就是很明顯的成果了。
笑死,底層邏輯就像憲法一樣,沒有建立基本規則,AI也只是
算出一堆垃圾。然後訓練不用成本?資料不用成本?人工校驗
資料不用成本?你對AI的認知和那些相信飆股群組裡的那些人
有啥兩樣?
就拿高速公路緩衝車當例子,3D光達與雷達只要一個簡單的”
感知前方有個靜止障礙即刻煞車”的簡單邏輯就拿運作,AI就
必須有大量的訓練資料才做得到,而如果訓練資料缺乏緩衝車
數據,偵測就有機會失效。這就是為什麼特斯拉吹了半天純視
覺,到現在還是只敢標Level 2的原因。
所以特斯拉現在就是一直在拿大量視覺影像在訓練阿 當然肯定也是耗費了不少訓練成本 但現行看到的成長結果 基本上是能確認基礎的大數據模型和學習樣本是沒有問題的 何況現在世界各地有在用FSD的車子 都能是視覺影像的素材 至於傳統的底層邏輯代碼寫再多是絕對不可能涵蓋道路駕駛會遇到的所有狀況的 這是永遠寫不完 既然寫不完 那就是透過端到端模型讓AI自己花時間去學習,終有一天就能訓練達到像人類一樣的反應和判斷。這種端到端模型技術不是只有特斯拉採用,不少自駕研發公司也都有開始在進行了,不管是透過雷達還是鏡頭。
※ 編輯: Nico0214 (149.117.216.39 臺灣), 08/27/2024 01:18:14從回文之間就可以發現其實很多不懂原PO解釋的內容是什
麼,只是硬要而已。
拿緩衝車當例子可說是衝出跑道傑出的一手,雷達如何檢
知前方有靜止障礙系統如何做出即刻煞車其實這十年來汽
車業界硬體方案的實作都差不多,所以才有他牌汽車不斷
撞緩衝車的新聞。這就是前面推文提到嗤之以鼻的業內人
士嗎?
29
首Po在台灣的環境 如果是拿 lexus 雙B 保時捷 在台灣的熱門高級車比 特斯拉 先進安全輔助 到現在還有絕對優勢嗎? 還是說這些傳統車廠 已經不輸 追上來了?? 有沒有開過 最新世代的 分享一下8
拿國道內線來說好了,已經好幾年沒看過或聽過特斯拉撞工程緩撞車了吧?而且特斯拉在 台灣能換車道、下交流道。 離開台灣,雙B VAG Lexus的安全輔助系統才能生存;目前追撞第一是豐田,系出同源的L exus也撞了不少台。 雙B和保時捷的輔助駕駛我沒用過,但Lexus的系統跟Luxgen N7差不多,可能N7也比他先2
有無什麼相關機構 來評比 先進安全輔助誰的精度高、人性化程度 不然也只是流於 自己買什麼車 喜歡她,講他好而已 或是根本不知道其他廠牌 的進步速度 就跟汽車撞擊測試一樣X
眼睛視覺(攝影機) 耳朵聽覺 (雷達) 車主平常攙扶 老太太過馬路 標線 特牌/他牌 移動汽車 特牌 他牌 靜止障礙物 特牌 他牌1
其實就反過來講好了 在台灣有比我特好的嗎 100公里時速能停的也只有我納了 所以如果很在乎自駕順不順 不會撞緩撞車2
特斯拉在近期,雨刷感應安全輔助上 聽說成功率有微微增加 不知道其他車廠是否在這方面能力有落差 ※ 引述 《toto123 (toto123)》 之銘言: :
79
Re: [新聞] 利用後即丟? 特斯拉中國市占快腰斬(來源是無聊看得說書網評,不確定 正確與否,現階段很多對特斯拉的評價 處於落井下石的階段,也有很多特吹給 特過於高的評價。) 現階段來看,特的FSD依舊無法做出24
[電車] 特斯拉FSD V12神經網絡系統自駕又進步啦最近特斯拉發佈FSD V12 簡直太狂了 原本是靠雷達偵測和鏡頭輔助 依照實際路況 按照已編寫的指令 執行命令 現在是直接靠純視覺創造自己的虛擬世界 由AI自行判斷即將遇到的路況18
[分享] 特斯拉FSD beta 來比眼力有沒有比AI好這個youtuber將FSD AI看到的畫面結合實際行車畫面 有幾個亮點, 你去觀察對向車道,或是更遠處都可以發現AI都可以清楚知道車子位置在哪 換句話說,FSD用了鏡頭就可以模擬光達的距離偵測了 這個技術已經被特斯拉提出為專利13
Re: [電車] FSD可能即將在台灣開始測試根據我的觀察 應該是有開啟影子模式在學習中了 不僅自動駕駛頁面中的名稱有變 在一些使用警告中 也多了一些"允許車子收集額外數據的許可"可以勾選 我的model s plaid 在自動駕駛那個頁面跟輔助駕駛有關的名稱也有改變6
[問卦]特斯拉自駕 已不須工程師標注號誌了特斯拉未來自駕技術要大改變了 現在你有特斯拉的 請立刻加購FSD 因為2030年特斯拉就能實現一般路面的全自動駕駛 而 到時FSD自駕系統會上漲至一套50萬 以往特斯拉的自駕 採用全視覺 需要工程師在後台標註 這是紅燈 這是綠燈 這是雙黃線1
[問卦] 特斯拉的自駕系統是不是過譽了特斯拉的頂配自駕系統FSD 在自動駕駛分級裡只有第二級 仍須由駕駛人控制車輛 系統只有輔助功能 駕駛雙手還是要放在方向盤上 反觀Waymo的自駕車3
Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好關於對車輛周遭環境的判別討論還不錯, 但是自動駕駛的進步還有一個關鍵就是駕駛行為, 何時該轉彎?如何轉彎?路口可以往前嚕一點再轉嗎?等等 參考影片: (看看特斯拉如何處理越過多線道左轉)2
Re: [問卦] 特斯拉自駕要大耀進了傳統自動駕駛 基本分為三大模塊 感知 決策規劃 執行 其中感知不管是純視覺還是融合感知 都會用AI對圖像物體進行識別和標註
9
Re: [心得] 2024 福斯 T-cross 半年上課心得2
[閒聊] 57好像每週四固定批判和泰耶!2
[問題] 車禍賠償請益4
Re: [閒聊] 適合跑業務的車?4
Re: [心得] 納智捷N7一日北高 還好沒買2
Re: [閒聊] Lexus NX200 兩年保養分享15
[情報] Rolls-Royce Cullinan可能搭載H3
[問題] 轉速表有沒有可能是快樂錶?15
[問題] 汽車有衝壓進氣的設計嗎?3
Re: [新聞] 宛如科幻小說 馬斯克的未來地底隧道亮相