Re: [新聞] AI「薪」貴!科技業祭出年薪200萬搶人才
※ 引述《KILLE (啃)》之銘言:
: ※ 引述《KILLE (啃)》之銘言:
: : 又過一年了 來看本人兩年前預測文
: : 矽谷這AI職缺明顯變少 https://imgur.com/EM9X6Kj
: : CUDA也變少 https://imgur.com/kzGtpoj
: : 產品要落地 必要之優化不可少
: : 產線要優化 流程要優化 電路設計需要優化 裝置軟體韌體要優化
: : 憑甚就AI不需要 ?
: : https://finance.technews.tw/2021/01/15/unicorn-companies-software-ec-ai/
: 現在結果算是揭曉了
: AI = 拼數據 沒數據就是吃毛
: 數據充足 爛模型亦為結果好棒棒
: 數據不足 神佛亦難救
: 在數據夠情況下 不要說底層優化到自己開晶片
: 就算是推論inference運行模型之晶片 還買都買得到
: 是的 我當初推論偏頗 以CUDA為深度學習量揣指標
: 我未想到還有AI專用晶片這路
: 以我這四年觀察 :
: 人工智能 離不開傳統做法為前處理 不論是統計分析還是訊號圖像處理
: 這些傳統處理 相當多適合一口令一動作無需判斷之併行計算
: (SIMD單指令多筆數據)
: 也就做CUDA(或SIMD(x86 SSE/AVX, arm NEON)優化
: 在數據夠 在玩到一定程度後 這些前處理必需優化
: 而數據量是核心之核心 以致根本沒幾間公司數據量達到需聘人優化前處理
: 人們現發現其實AI(在數據不足時)也沒這樣神
: AI今日退成統計分析之一環 與傳統方法互補
: 今日 累計數據之重要性 比 找個AI天才 來得重要
: AI常只是意謂 這公司有在做統計分析 至於是不是神經網絡 那不是重點
: 結果能用 正確 就可以了
: 採數據才是AI真議題 所以做單晶片韌體之人 比之前來得搶手
: 不過AI也不能說沒用 讓公司重視數據分析 看出些端倪 總是好是
AI在所有人用的方法都差不多,使用的訓練設備都差不多
瓶頸主要在訓練資料和產品的硬體架構
MTK CAI新人十個有十一個都想搞Algorithm
但他們不曉得Algo的世界的殘酷
只有第一名和輸家,這塊早就已經血流成河
投100體力大概只有10的期望回報
台灣不搞雲端,資料這塊基本沒救。
把軟硬體整合做好是唯一出路
現在就是Nvidia Cuda太貴,Arm Neon不夠用。
設計一套新指令集解決Edge computing的需求是當務之急
這邊有滿多Work可以做的,比如說以下這幾項:
RISC-V+客製指令
推論算法/量化算法 (int8 qunatization)
編譯器技術(LLVM/TVM/MLIR)
指令模擬器
這些都是滿值得投資源下去研究的東西
軟硬整合整的好,做的夠省電,效率夠高
用最稀鬆平常的CNN幹下去,就算對手是Qualcomm也是打爆
--
「就算對手是Qualcomm也是打爆」台灣之光!
第一句話就錯了,給你全世界的資料量,全世界最強的
硬體資源。你還是做不出 AlphaGo, chatGPT。大家都
差不多?
承認這幾年台灣沒AI人才,沒那麼不堪吧。
只有用CNN也已經被幾萬篇論文證實效果不夠用了
怎麼打爆Q公司。
台灣不可能啦
總覺得是東拼西湊出來的論點,漏洞頗多
說得好像Q有資料一樣
台灣沒產業 真想做演算法就出國
Mtk有apu阿 Q有hgon 誰比較強都沒有評測就是
除Riscv +ai 其他應該都做很久了好嗎
ai跟data在美國是這波裁員重災區吧..根本就不需要這
麼多人
臺灣相對有data的是誰?
請問Qualcomm 也很強?
為什麼你覺得 RISC-V 可以解決 Edge computing 問
題?哪裡說的?
都什麼年代了還在用CNN硬上......
RISC-V已經起飛幾年了?
Nvidia不是也在推AI 硬體應該比Q強吧
台灣不會到沒有人才 只是不夠多 量變產生質變
RISC-V 現階段當controller 先吧,運算再等等吧
就不知道就算有資源台灣做不做的出來chatGPT
APPLE直接Float運算 你還在quant 早點睡好嗎
影像功能滿滿的CNN阿,晶片推架構為主不不是model
台大文組真的只能吃屎,都在領3萬月薪
問題是CAI搞硬體設計和軟體配套的,不搞algo啊,要
搞algo請洽MM
只要搞HW的大老死一半,SW才有機會在台灣起來
17
又過一年了 來看本人兩年前預測文 矽谷這AI職缺明顯變少 CUDA也變少 還是一樣 CUDA與深度學習 維持大約1:10之比例 所以說 AI玩到下面 還是要自己優化深度學習算法嘛16
現在結果算是揭曉了 AI = 拼數據 沒數據就是吃毛 數據充足 爛模型亦為結果好棒棒 數據不足 神佛亦難救 在數據夠情況下 不要說底層優化到自己開晶片17
認真說,這個立場有點偏頗,先說,我贊成你所謂的拼數據,但機器學習一直都是資料、統 計導向的學門,data driven本來就機器學習的一環,DL只是機器學習的一個子方法,他依 舊脫離不了資料統計建模,而所謂的AI是一個模糊超集,他包含專家系統、統計建模、機器 學習、範疇論、消息理論等等等,只用AI等於DL是一種不太健康的心態。 然後可以看看Stanford HAI REPORT根據2022全球關於AI(ML/DL)的領域產業發展概況其實可
2X
[情報] intel十代全線投降:放棄TSX指令集上面是10900K的規格表 可以看到Intel® TSX-NI 不支援 9900K是支援的~~ 這個指令集一般用在模擬器和data io13
Re: [問卦] 學會 RISC-V 之後能做什麼工作?這要看你學會RISC-V的定義是什麼 就像是練功一樣,端看你練到第幾重天 第一重大概就是會用RV64/32指令集寫寫組語 這個就像是剛剛出新手村的勇者,可能只可以打打史萊姆 當當新手村掃地工13
Re: [問卦] 學會 RISC-V 之後能做什麼工作?沒想到有人問掛 算是相關產業人員所以來喇賽一下 既然談職缺,那就來說有哪些地方在用 跟為何要僱用這些人 畢竟大家在資本市場,沒有人會散財作沒有獲利的事情11
Re: [討論] AI晶片現在業界單純說AI晶片是太籠統的說法了, 為了獲得最高效能與最高CP值, 業界把AI晶片細分成以下幾類, 1. Training 訓練: 這是目前業界最難做的部分,5
Re: [討論] AI晶片多嘴插句話,除了Training跟Infer差異外,其實真的要細分還有從硬體、軟體的優化, 從最上層到底層跟硬體的結合才能夠把edge computing提升到產品落地階段。 像是閣下說的自然語言這塊把Transformer從軟體層面做降維優化、新一代更輕量的CNN模型 ,還有既有的半精度FP8這種跟指令集優化,另外這幾年學界比較有研究的從Complier上做 優化通用矩陣乘法。6
Re: [新聞] 安謀告高通 燒到手機晶片廠後文省略 今天去參加Arm的技術研討會蹭個飯吃 有跟他們的工程經理聊這個話題 關於NPU和ISP部分應該是不用太擔心會綁定Arm公版