PTT推薦

Re: [新聞] 美擬放寬自駕車監管 特斯拉飆漲快10%

看板Stock標題Re: [新聞] 美擬放寬自駕車監管 特斯拉飆漲快10%作者
LimYoHwan
(gosu mage)
時間推噓10 推:14 噓:4 →:44

最近一堆低能媒體說什麼「川普政府放寬自駕車法規」,

事實根本不是放寬,而是AI 把整套舊時代的法規打爆,監管被逼著重寫一套新的驗證規則。

先講清楚:SAE 分級早就過時了
所謂的 L0~L5 是美國一個民間組織 SAE(汽車工程師學會)自己訂的參考表格 在2014裡面都一堆過時老人 不然就是傳統車廠老人
根本不會AI
不是政府、不是法規、沒有執照功能
原本是用來描述「駕駛 vs 系統」誰負責開車的分工

問題來了:現在的 AI 自駕根本不是模組接管的邏輯。

Tesla FSD 、Wayve、Ghost 都是端到端神經網路,直接從視覺感知預測車輛軌跡,
整個決策是統一建模出來的,根本沒有「感知模組、控制模組、駕駛可以中途接手」這種設計。

所以你拿 SAE L3 去說 FSD 不夠格,根本就是用卡式電話去檢驗 iPhone 處理器。

以前的法規是為「人類駕駛+機械控制」設計的

舊的 FMVSS 法規管的是:

有沒有方向盤、後視鏡、煞車燈、保險桿高度
車子撞牆會不會碎
軟體幾乎沒在管,因為預設人類掌控一切

但現在是什麼?
車是 AI 在開
決策是神經網路從影像推理出來的
每次 OTA 更新都可能改變整台車的駕駛邏輯
一秒做幾千萬次浮點運算來規劃路徑

你怎麼可能還用「有沒有按鈕」、「轉向盤幾度」這種標準去管這種車?


NHTSA 推出的新制度(AV STEP / ADS NPRM)有兩大特點:

1)改用行為績效評估(Performance-Based)
不再強制你裝方向盤、鏡子
改看你實際上能不能在數百種真實場景下(交織匝道、夜間行人、突發路障)安全
駕駛
看你 OTA 更新之後,有沒有變更穩,錯誤率有沒有下降
誰表現好,誰就能上路,不管你是多模組還是端到端

2)但對「關鍵安全模組」仍然要求冗餘與容錯能力
NHTSA 沒有全面放飛,對於煞車、轉向、主電源這種會致命的控制層,
仍然需要符合 功能安全(FuSa)標準,尤其是要能進行 MRM(最小風險動作)
換句話說:你神經網路可以出錯,但你不能讓車失控
Tesla FSD 雖是單網路決策,但底層硬體有雙煞車、雙 MCU
Waymo/Cruise 則是多感測冗餘 + 遠端接管 + ASIL-D 控制器

所以結論不是「鬆綁」,而是「重寫賽制」

舊制度問:「你裝了哪些東西?」
新制度問:「你能不能跑完所有場景,而且比人還穩?」

AI 讓車自己開了,法規也要跟上
現在的監管不是不要安全,而是:

不管你怎麼設計,只要你能證明你更穩、更聰明,就放你上場。做不到,就下線。

裝一堆光達但是會撞緩撞車一樣吃屎

這才是現在 自駕產業真正的監管邏輯。
不要再用 2014 的 SAE 分級去看 2025 的 AI 自駕車了,真的跟不上。


--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.19.160 (臺灣)
PTT 網址

ken52011219 05/10 02:21其他認同 但真的要切決策點是切得出來的 更何況模

ken52011219 05/10 02:21型跑出來的結果還是會再包一層框架 真以為你 input/

ken52011219 05/10 02:21output 出來就直接用嗎… 它不是黑盒子

傳統的模組式系統(比如 Waymo)確實是「每層切割清楚」,感知→語義理解→路徑規劃 →控制,每一層都可解釋、可插拔。但像 Tesla、Wayve 或 Ghost.ai 的做法,是真正把 這整條 pipeline 用一個神經網路端到端學出來。 不是「output 拿來再包」,而是: Input:一整段影片或視覺序列 Model:Transformer 直接做 spatiotemporal encoding, Output:直接產生 steering trajectory、heading、velocity profile(甚至 含? ) 控制決策就是 output,不再是給後面另一層邏輯套用的中間值。 如果你還用「模型輸出要再包一層框架」的邏輯去看,那是套用舊時代 modular stack 的概念。新時代 E2E 的精神,是「用一個大模型整合感知、理解與控制」,也因此才會 需要從 validation 到 regulation 重新設計驗證方式(例如 AV STEP)。 傳統模組:能用傳統軟安 (ISO 26262) 的單元測試、接口測試 端到端:一改參數,行為整體變;必須 Scenario coverage+大規模 shadow-te st 這也是 NHTSA/加州 DMV 正在做 AV STEP、整合模型覆蓋率 (ML coverage)、on -r isengagement trace 的原因 所以觀念真的要更新,不然會不小心把 GPT 的理解套用到 Vision Transformer 控制網 路上,那就錯了。

※ 編輯: LimYoHwan (111.249.19.160 臺灣), 05/10/2025 02:30:57

a000000000 05/10 03:11dmv爛死惹

cityport 05/10 03:15加州DMV連發駕照都這麼落漆..你敢相信他?

s9300519 05/10 03:36用政治的觀點來看不就是先射箭再畫靶?

aasslleepp 05/10 03:54有種來台灣測啊 看了各種影像以後AI決定都不作動了

aasslleepp 05/10 03:54 人類不應該有車

casper95503305/10 03:55先解釋一下今天TSLA怎麼又噴了?

aasslleepp 05/10 03:55不可能的 所有場景都跑不完

WunoW 05/10 04:44中國電動車還在卷L分級真的笑死 跟FSD完全不同次元

WunoW 05/10 04:46自駕的未來只能是FSD 其他都是所謂 在座的各位

WunoW 05/10 04:47走錯路了 走再遠都是枉然不用拿來吹

amatpapapa 05/10 05:06https://i.imgur.com/uQO7r3A.jpeg

linbryan 05/10 05:08ptt專家評論從L1-L5改成P1-P100等級.以後改問你的

linbryan 05/10 05:08自駕有P60?台灣學生強在算數不是數學啊

focoket12 05/10 07:57中共國的電動車根本比不上,B站都說是大型掃地機器

focoket12 05/10 07:57人了

fish0414 05/10 08:14這篇有料

GingFreecss 05/10 08:33但其實這樣跟之前的監管比起來是放寬沒錯啊

GingFreecss 05/10 08:34很明顯在圖利特斯拉啊 但我很爽 嘻嘻

b2060027830 05/10 08:56特黑崩潰

zz841031 05/10 09:06很專業推推

JKLee 05/10 09:11

maniaque 05/10 09:15講那麼多,責任問題 完全都不提.....唉~~~~

maniaque 05/10 09:16對,美國憲法還是他馬的一部百年老法,怎能拘束我川呢

maniaque 05/10 09:17管你多會扯遙遙領先,到法院去這些都是 屁

maniaque 05/10 09:18有本事就開個場子,放一百台自駕車從場子四面八方

maniaque 05/10 09:19進去吧,告訴大家 AI 在沒有可follow 的rule

maniaque 05/10 09:19是怎樣如何順順利利開過這個場子

maniaque 05/10 09:20你這套歪理,在虛擬幣那邊也是一樣在歪來歪去

你把「沒有規則可以跟」跟「沒人提責任歸屬」這兩件事掛在一起,完全搞錯現在自駕車 監管的方向。 美國現在就在把所有 AI 自駕該怎麼驗證、失效時怎麼收尾,寫進正式的聯邦法規。 像 NHTSA 的 AV STEP,早就要求你模型能跑、風險場景能應付、出事能自動停車。 FMVSS 也改成要看模擬跟實測數據,不是嘴巴說過就算,測試成績要先交出來給政府看。 責任這塊更不是沒人管。Waymo、Cruise、Zoox 都已經被加州 DMV 要求買 1000 萬美元 的無過失保險,直接寫死:只要是自駕系統在開,出事你公司全包。未來 Tesla 要上無 人 permit,一樣跑不掉。 那種十字路口沒有紅綠燈、車從四面八方來的亂場景,也早就是聯邦的測試項目。現在還 規定你要交幾十萬筆 scenario、模擬通過率跟真實介入紀錄。 至於端到端 AI 現在已經證明:遇到沒有圖資、沒有車道線、交通錐亂擺,傳統 rule-based 如waymo就 會當掉,反而是像 Wayve 或 Tesla 這種 E2E 網路,用畫面直接學出「這邊該停」、「 這邊能擠」,才扛得住。 AI 自駕現在最怕的不是沒規則,是規則終於來了而且專門針對沒把模型搞清楚的人寫的 。

bnn 05/10 09:45啊你黑盒子只看整個車的出事率 責任切分就比較尷尬

bnn 05/10 09:46以後你就不能針對 喔 這油箱問題 這剎車問題 這XXX

bnn 05/10 09:46你只能說 車禍了 喔 這特斯拉全責

bnn 05/10 09:47那你要改善時問題就 我也不知道怎麼再現問題debug

bnn 05/10 09:47跟Vibe coding一樣變成 唉我用AI再重寫一遍吧

bnn 05/10 09:49你程式可以It just works,你車規全部重頭跑一遍送驗

bnn 05/10 09:50每次沒法debug就全部重跑個出來撞一百萬次驗出事率?

a316xxx 05/10 09:50認真文給推

bnn 05/10 09:51不提安全性問題 你每次這樣重跑驗證成本多少

bnn 05/10 09:51反正就假設你每次重練出來的AI模型都能跑完場景通關

bnn 05/10 09:52你有辦法基於過去經驗加速驗證進步來cost down嗎

bnn 05/10 09:52還是變成你每出點小事就等於重新開發一輪產品驗證

bnn 05/10 09:53還是反正算力便宜 AI無敵 總之先跑一千套壓壓驚

※ 編輯: LimYoHwan (111.249.19.160 臺灣), 05/10/2025 09:58:03

darkangel11905/10 09:57大內高手

amongolu 05/10 09:58ㄧ樓就大特黑

s972627 05/10 10:17專業給推

potionx 05/10 10:18反正特斯拉弄無人計程車就是期中考 實戰跑了就知道

potionx 05/10 10:18不要像中國那樣亂吹就好了

maniaque 05/10 10:22別把 刑事責任 用 民事責任 去包,好嗎???

maniaque 05/10 10:23FSD 吹幾年了,放手出事哪時候特斯拉說 "我負責"過??

maniaque 05/10 10:25Waymo 是在怎樣的框架下去follow 法規,才有允許的

maniaque 05/10 10:26權力??? 呵呵~~人家是在現有框架,你認為的那種過時

maniaque 05/10 10:26規範下乖乖運作的

maniaque 05/10 10:26現在吹特斯拉就說是那是過時規範??

maniaque 05/10 10:27不就是 因人設事,量身訂做?

maniaque 05/10 10:27反正,到時候出事,告上法庭,大概就看到每個出庭的

maniaque 05/10 10:28都說 這不是他的責任 ,對吧?

現在監管的邏輯是「你技術怎麼玩都行,但失敗成本先買單、最壞情境先想好」。 Waymo、Tesla、Zoox 通通照這三條跑;誰都不能一句「不是我的責任」就閃人。真的要 比?就看誰的 MRM 可靠、誰的模型 pass 率高,跟你說的「喊個口號就免責」完全兩回 事。 正在修的 FMVSS 150/155 直接要求廠商提交「場景覆蓋率 & simulation pass rate」。 你的感測方案(LiDAR 也好 Vision-only 也好)踩不到 99.x% 就別想上路。

※ 編輯: LimYoHwan (111.249.19.160 臺灣), 05/10/2025 11:12:39

tslabull 05/10 11:19都進中國了 還在有種來台灣測 井蛙可以去看一下中

tslabull 05/10 11:19國”一般人”用FSD的影片 中國可以台灣一定也能跑

no2muta 05/10 12:53哈哈台灣法規跟上了嗎?