PTT推薦

Re: [新聞] 中國AI晶片業陷困境 兩大關鍵廠商消沉

看板Stock標題Re: [新聞] 中國AI晶片業陷困境 兩大關鍵廠商消沉作者
waitrop
(嘴砲無雙)
時間推噓85 推:88 噓:3 →:112

前一篇文章太八卦了,
想一想還是刪掉好了,
我們就市場與技術做專業討論,
先說結論: All in TQQQ 就對了

AI晶片分成兩種: edge AI 與 server AI,
寒武紀是edge AI,
壁仞科技是server AI,
目前新聞與股市天天在吵的都是server AI,
而中國真正有戰鬥力能跟NVDA AMD 對打的 server AI 只有兩家:
壁仞科技與摩爾線程,
壁仞科技倒了表示全中國server AI 市場只能買NVDA AMD,
至於推文提到的華為 AI 晶片,
那是達文西+泰山 堆出來的東西,
是個十年前的設計,
跟檯面上的AI 晶片大廠只會被越拉越遠,
All in 美股七巨頭

然後我們把眼光放遠一點,
就像我之前說的,
這波AI 產業革命如果成真的話,
會像是之前的智慧手機與網路革命一樣,
從頭到尾可以整整吃十年以上,
在一開始的產業發展是放在硬體與Infrastructure 的開發,
比方說199x-2000年的CSCO,
以及智慧手機剛開始時的CPU 設計: QCOM, AAPL, ARM
以現在的情況來推算就是 NVDA AMD,
但是之後真正賺大錢的是應用平台的蘋果稅, 谷歌稅,
youtube, amazon, facebook 等,
所以之後AI 產業真正會賺大錢的是在應用平台上面,
只是現在還看不到也看不清

好, 回到重點,
AI server 的硬體, 尤其是GPU/TPU/ASIC,
我個人預估還有三到五年的榮景,
等到算力過剩 或是 大部分應用模型都訓練的差不多了,
接下來對大模型訓練的需求會減少,
這是趨勢,
所有科技的趨勢都是這樣發展,
接下來就是edge AI 的天下,
最終的應用平台都是要跑在客戶端, 比方說手機或筆電等,
尤其是inference 推理的應用一定都在 edge device上跑,
所以我個人預估一兩年內 edge AI 的需求會暴增,
三五年後 edge AI 會超過 server AI,

Then, who is the edge AI player:
台灣: 聯發科
中國: 寒武紀, 華為 NPU
美國: GOOG, ARM (Mali), NVDA (maybe), AMD (maybe), AAPL (NPU), QCOM

還有一些新創公司在做 edge AI 晶片,
目前 edge AI 做得最好的是GOOG 的tensor,
能夠配合安卓在手機上面跑AI 推論,
Pixel 手機上面也有一些 edge AI 晶片的應用,
包含照相美顏 與 即時修圖等功能,
結論還是All in 七巨頭, TQQQ


再來說CUDA的事情,
有OpenCL 跟CUDA 對打,
這是一個完全open source 的東西,
CUDA 與OpenCL 就像是當年DirectX 與 OpenGL,
所有其他GPU公司要繞開CUDA,
只能從OpenCL 或是其他open source framework 下手,
至於推文說的Pytorch 與 TensorFlow 等 framework,
又是不同的東西,
Pytorch TensorFlow 都是架構在CUDA/OpenCL 上面,
他們不是平行同等的東西,
所以才有所謂的GPU CUDA 加速 Pytorch TensorFlow,
一樣的道理,
你拿DirectX 與 OpenGL 來對比就知道我的意思,
現在OpenCL 還是比不上CUDA,
但是基於open source 與各大軟硬體公司合作,
相信幾年後一定會追上的,
就像當年OpenGL 也是多花了幾年的時間才追上 DirectX

※ 引述《Arim (億載金城武)》之銘言:
: ※ 引述《Su22 (裝配匠)》之銘言:
: : 原文標題:中國AI晶片業陷困境 兩大關鍵廠商消沉
: : ※請勿刪減原文標題
: : 原文連結:https://reurl.cc/WRAEMZ
: : ※網址超過一行過長請用縮網址工具
: : 發布時間:2024/01/27 08:22
: : ※請以原文網頁/報紙之發布時間為準
: : 記者署名:吳孟峰
: : ※原文無記載者得留空
: : 原文內容:
: : 曾經充滿希望的中國人工智慧(AI)產業正面臨艱困時期。壁仞科技和寒武紀這兩個新創
: : 產業巨頭都在苦苦掙扎。壁仞執行長兼聯合創始人徐凌傑最近辭職,引發人們對公司未來
: : 的擔憂;而寒武紀持續7年來虧損,不得不裁員。
: : 壁仞科技被美國政府列入
: : 這兩家公司並不是中國唯一的AI GPU開發商,但他們的掙扎反映整個中國AI硬體的困境。
: : 這些公司是否能夠適應、保持財務穩健,並跟上快速變化的市場趨勢,目前還有待觀察。
: : 心得/評論:
: : 之前壁仞的GPU產品線總經理焦國方也離職了
: : 現在另一個高層也閃人
: : 寒武紀(SHA: 688256)則是連續虧損中,股價也跌了不少
: : 有投資中港股市AI晶片概念股的網友要注意相關風險
: : ※必需填寫滿30正體中文字,無意義者板規處分
: AI GPU 這塊未來十年內肯定還是 Nvidia 獨大,就跟 台 gg 一樣,整個生態早就建立起來了,要幹翻他光有錢是不夠的
: 皮衣刀客在十幾年前就佈局 cuda,只要有用 Nvidia gpu 做加速的軟體通通都要綁 cuda,目前開源做深度學習跟推論的,也都是綁 cuda , 然後 cuda 並不是開源的,所以如果不是 Nvidia 的晶片,根本不能用 cuda
: 所以你看 meta 買 nv 的卡,openai 也買 nv 的卡,AMD 雖然也有自己的運算軟體,但生態系沒建立起來,在 AI 這塊終究看不到 nv 的車尾燈,你有看過有哪家大廠買 AMD 的卡做訓練嗎?
: 所以搞 gpu 晶片這塊就跟牙膏在 gg 面前說要做先進半導體製程一樣,只是純燒錢而已,什麼都不會有的
: -----
: Sent from JPTT on my Xiaomi M2004J19C.

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.225.6 (美國)
PTT 網址
※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 11:26:09

roseritter 01/29 11:26大大 前一篇也很好啊 不需要刪吧 讓我們業外聞香

mongduo 01/29 11:28前一篇提的,這一篇都有啊,刪掉保險一點~推

metallolly 01/29 11:30七巨頭..是誰的XD

zoze 01/29 11:30中國燧原科技 聽說不錯

rebel 01/29 11:31edge ai有個問題 目前業界還沒找到殺手級應用 需求

rebel 01/29 11:31不強的話 很難帶動需求跟價格

ymlin0331 01/29 11:32all in TQQQ

a316xxx 01/29 11:33淺顯易懂的優質文

pponywong 01/29 11:33對岸記得還有一個地平線阿

thg156yu789 01/29 11:36發哥太貴了 有其他間嗎

台灣有在做GPU的公司 我只知道矽統, 當年矽統 的GPU 差點把nvidia ati(amd) 打趴, 不過那是25年前的故事了, 晶心做risc-v 偏向cpu, 不知道有沒有AI/GPU 的設計, 我也不知道台灣IP公司有沒有AI/GPU 的設計, 像是智原,創意, 所以我無法回答你,

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 11:45:20

mabobo 01/29 11:42請問直接買00757也可以嗎?

aegis43210 01/29 11:47西台灣做推論的只要沒辦法下GG,就沒希望了,反倒是

aegis43210 01/29 11:47做訓練的,有足夠電力還可以大力出奇蹟

dragonjj 01/29 11:49結論 可以歐印台GG了嗎?製成全都繞不開阿!

對, 歐印GG 也可以, 跟歐印TQQQ 一樣, 你最後還是要加入他的

dongdong040501/29 11:50有料,推

MacD89 01/29 11:50edge ai 會不會太浪費資源?把運算丟到server算好

MacD89 01/29 11:50再傳回來會不會比較有效率?

不, 丟server 才是浪費資源, computer science 吵"中心運算"與"平行運算" 已經吵了百年了, 最終都是平行運算勝利, 把所有計算放在 server 才是最耗資源 最耗水電的, 只有把運算分散到終端用戶, 才是最終最好的解法 比方說, 你買10000支手機 可以有一台 AI server 的算力, 也就是一台AI server 可以支援 10000 個用戶的運算需求, 但是這樣一台AI server 的造價與耗電量是 10000支手機的數百甚至數萬倍

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 11:57:53

thbygn98 01/29 11:53一定需要edge的,很難全不要

w60904max 01/29 11:54tqqq有垃圾車

kducky 01/29 11:55沒錯 QQQ買滿

c7683fh6 01/29 11:55推 歐印10年財富自由

rebel 01/29 11:57反了吧 推論對算力需求低 有沒有GG影響低

good5755 01/29 11:57照這篇買股 allin谷歌?

Cliffx 01/29 11:57tqqq有垃圾車

FNGG 等七巨頭ETF 也都有垃圾車呀! 沒辦法呀! 比持有率的話, TQQQ/QQQ 持有垃圾車的比例還比較低

howhow80112201/29 12:00垃圾車是誰

booray 01/29 12:01edge 功耗更重要啊 不用GG先進製程手機電池哪夠用

對, edge 最在乎功耗

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 12:04:07

ohlong 01/29 12:03Edge絕對會是主流 更何況區塊鏈那套也可以拿來用在

ohlong 01/29 12:03末端算力上

aegis43210 01/29 12:04目前大部份模型仍未到剪枝階段,推論仍需要大量算力

aegis43210 01/29 12:06所以西台灣做推論的,沒有一家能投資

JKCCF 01/29 12:07好 ALL IN!

jamesho8743 01/29 12:08Linux追得上Windows? Firefox追得上chrome? 聯電追

jamesho8743 01/29 12:08得上台積電?

OpenGL 後來真的追上DirectX, 甚至現在的3A 大作支援OpenGL 更多, 理論上, open source 與 跨平台cross-platform 最終都會勝過封閉系統, 唯一的例外就是賣水果的那家, 所以信仰最重要

energyy1104 01/29 12:10最優解就是都配 不可能全部用edge也不可能全部用se

energyy1104 01/29 12:10rver

ming5566 01/29 12:11

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 12:14:34

jamie81416 01/29 12:12這篇才是重點

jamie81416 01/29 12:12結論:All in GG

lrac 01/29 12:13

fernmmm 01/29 12:14看起來edge端發展起來關鍵是server成本居高不下 那

fernmmm 01/29 12:14有沒有什麼劇本是server成本大降

jamie81416 01/29 12:15樓上,edge段的發展關鍵是應用,不是server

MacD89 01/29 12:15可是使用者更在意自己on premise的功耗太大而不會

MacD89 01/29 12:15考慮服務商那邊的功耗成本?所以最後還是都有的吃

MacD89 01/29 12:15 不過不管edge或server那邊loading會比較重 反正就

MacD89 01/29 12:15是gg或成最大贏家 XD?

jamie81416 01/29 12:16沒錯R,不管哪個都要GG支援

strlen 01/29 12:16你各位不要歧視垃圾車 人家還差一點就變AI神車 還有

strlen 01/29 12:16chobits 機械公敵

jamie81416 01/29 12:17現階段edge AI還沒噴單純是還沒有殺手級應用

aspirev3 01/29 12:18愛普跟邊緣運算有關係嗎

fernmmm 01/29 12:18Edge應用怎麼說 願聞其詳

fernmmm 01/29 12:19是指在edge或server跑應用性能表現有差嗎?

看看這篇 Pixel 8 Pro — the first smartphone with AI built in — is now running Gemini Nano, edge 的應用例子, 還可以找到一些其他的例子, 但是不多,

https://store.google.com/intl/en/ideas/articles/pixel-feature-drop-december-2023/?utm_source=sem_bkws&utm_medium=dr&utm_campaign=GS107234&utm_term=Gemini_p8&gad_source=1&gclid=CjwKCAiAk9itBhASEiwA1my_652z4S_MPSOQFZv1YYPbS1dPKWHUvWKNXHz2ZpSX2XbEQUq3oYazWxoCL84QAvD_BwE&gclsrc=aw.ds

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 12:21:11

joygo 01/29 12:20現在就大廠再拼啊,拼出一個最強的需求就會跑去客

joygo 01/29 12:20戶端了

jamie81416 01/29 12:20比較近似的例子,NV的顯卡要用雲端串流還是單張XD

jamie81416 01/29 12:21GeForce Now就死的差不多了

joygo 01/29 12:21chat gpt讓人看到ai的好用,現在美術應該是第一個

joygo 01/29 12:21衝擊,再來應該會更多

fernmmm 01/29 12:23我想表明的點是 如果server成本大降 還有一定要在

fernmmm 01/29 12:23終端跑AI的必要嗎?

jamie81416 01/29 12:24樓上的問題相當於單機版還是雲端版

對, 這就是最好的比喻, 以使用者而言, 你覺得是單機版還是雲端版便宜?

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 12:25:57

awss1971 01/29 12:25結論: All in TQQQ

a1237759 01/29 12:26達文西是2019台積cowos團隊用16nm做的東西,說落後

a1237759 01/29 12:26十年就誇張了,五年差不多

a1237759 01/29 12:27且達文西二代當初率先使用兩層的soic ,領先AMD NV

a1237759 01/29 12:27三年,如果不是被封鎖,台積當時可能真的會帶華為打

a1237759 01/29 12:27趴AMD

達文西第一代研發設計在2015年底到2016年, 當年瞄準目標是A100, 是美國研發團隊研發設計的, 研發團隊在2018年整個解散, 流散到美股七巨頭, AMD 與 阿里巴巴, tapeout 與 design 的時間本來就會差兩三年, 即使你晶圓代工與製程再怎麼進步, 都無法彌補設計與架構本身的落後

jamie81416 01/29 12:28台灣就All in GG。Sign G翁!

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 12:31:33

guanting886 01/29 12:28Server成本再怎麼降也無法一次處理很大的需求 如果

guanting886 01/29 12:28都算簡單東西 很浪費那台機器的資源

beckhon 01/29 12:28大大,你所指有包含特斯拉嗎

a1237759 01/29 12:28D2在台積試產成功,但無法出貨,華為現在應該就是用

Eric0605 01/29 12:28你edge AI都寫MTK了 居然漏了QCOM?

補上了, 怨念太深都忘了QCOM

a1237759 01/29 12:28台積同一套在做D1

ds040302 01/29 12:29看不懂,推

guanting886 01/29 12:30有些Ai或某種較為簡單的處理可以做在專用晶片上 你

guanting886 01/29 12:30直接調用上面的資源來算比浪費Server資源算還更有

guanting886 01/29 12:30效益而且更快 不用網路

guanting886 01/29 12:31用單機版 跟 雲端版 形容算對 但單機版的功能是半

guanting886 01/29 12:31

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 12:32:52

aegis43210 01/29 12:33目前雲端推論運算就卡在記憶體瓶頸,所以邊緣運算化

aegis43210 01/29 12:33是趨勢,尤其是自駕

prpure 01/29 12:33請問tesla的自駕也算edge ai嗎?

a1237759 01/29 12:35我是當初研發團隊的,2018出貨給D1給海思,2019幫海

a1237759 01/29 12:35思試產,遇到封鎖團隊也不能說算解散,就是流往其他

ppuuppu 01/29 12:35

a1237759 01/29 12:35客戶

fake 01/29 12:37Ai應用爆發應該也是會帶動傳統伺服器的成長?畢竟

fake 01/29 12:37你東西做出來要分享出去還是得經過傳統伺服器

aegis43210 01/29 12:37是可以靠模型剪枝來緩解記憶體及網路瓶頸,但現在是

aegis43210 01/29 12:37吃力不討好,建模就來不及了

jamesho8743 01/29 12:38opengl本來在業界就一片天了 directx會紅只是因為wi

jamesho8743 01/29 12:38ndows和pc game的崛起 經過了幾十年opengl可以扳平

jamesho8743 01/29 12:38甚至超過 是因為只要學一套opengl就可以兩邊通用 op

jamesho8743 01/29 12:38engl在windows上的優化也很成熟和dx沒什麼差距

是的, 你的論點拿來套在OpenCL 也適用, 我相信open source 跨平台最終會追上封閉系統的CUDA, 當然信仰無價

jamie81416 01/29 12:38對消費者來說,半不半殘不是關鍵,好用才是

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 12:39:39

a1237759 01/29 12:38海思的design在當時其實一點都弱,又肯砸錢與台積共

a1237759 01/29 12:38同開發,台積扶持下追趕曲線非常快

fake 01/29 12:39另外手機電腦裝上 AI 晶片應該也會需要更強的散熱

a1237759 01/29 12:40總之這些廠商都靠台積飛的,叫台積股價飛不起來

a1237759 01/29 12:40

fake 01/29 12:42台積還是有很大比例是消費品吧 被拖累了QQ

AoA1 01/29 12:43好文,推一個

cccict 01/29 12:48現在企業又因為資安的問題要回去雲端化了,我現在

cccict 01/29 12:48筆電所有檔案都在one drive,edge除非像電動車有即

cccict 01/29 12:48時運算的需求才會使用,server的效率跟成本還是比

cccict 01/29 12:48自建划算,尤其現在都要ESG,還不如讓平台商解決

rebel 01/29 12:50我還是認為推論不應該消耗太多功耗 會消耗大量功耗

rebel 01/29 12:50的應用放在手機上就很奇怪 放在插電的pc上比較合適

rebel 01/29 12:50

Edaw 01/29 12:51推推

donkilu 01/29 12:51純噓GOOG

clisan 01/29 12:54推好文

france5289 01/29 13:00Andes 有做edge AI相關的產品

france5289 01/29 13:00概念是用vector CPU處理AI asic無法加速的operator

france5289 01/29 13:00 他們最近好像也有推自己的加速器 但不知道有沒有

france5289 01/29 13:00客戶(除了跟Meta合作之外)

sdbb 01/29 13:02應該是directx追上opengl

la8day 01/29 13:03現在都vulkan哪有人要用ogl

ga023630 01/29 13:05都要歐印 FNGU 會比TQQQ差嗎?

ProTrader 01/29 13:07幹嘛為了八卦特地刪文 內容很精彩 八卦也很精彩

ProTrader 01/29 13:08重點是這篇一點都不豪洨 原po哪可能壓力大

askaa 01/29 13:08靠我沒看到wait大大的八卦文 可惜惹 XDDDDD

ProTrader 01/29 13:09公司敢裁你就換下一間

n555123 01/29 13:14推一下

sdbb 01/29 13:23最早期,opengl比較像cuda,opengl領先directx cud

sdbb 01/29 13:23a領先opencl

SRNOB 01/29 13:25完了 看不太懂 我變落後老人了

y800122155 01/29 13:27MS copilot已經在貢獻營收了欸

y800122155 01/29 13:30TQQQ FNGU的組合問題應該可以透過買NVD3 FB3 MSF3 A

y800122155 01/29 13:30AP3 GOO3 AMZ3自己調整吧?!

speedman 01/29 13:37沒列到M$ 微軟有涉入AI嗎? 算是什麼腳色

我列的是硬體部分, 因為台灣只有硬體與IC產業, M$ 是AI 應用平台的角色, 目前M$ + OpenAI 是AI應用平台的第一名領先者, GOOG 是AI應用平台的第二名, GOOG 幾乎在每個AI 的領域都是排第二第三, 缺點是GOOG 沒有任何一個AI 領域是第一名領先者地位

karcher 01/29 13:39有內容給推,不過有點高估AI的價值

y800122155 01/29 13:39微軟是ChatGPT大股東 市值都超越阿婆了還什麼角色..

roseritter 01/29 13:40微軟是openAI大股東,早早引入copilot

roseritter 01/29 13:40變現能力現在看來海放google

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 13:47:06

cadaver 01/29 13:45請問大大有TQQQ預計獲利了結的時間點嗎

美國總統大選前 也就是 2024年12月前, 都是安全的存股時間點, 選完之後很難說, 我之前說過, 不論是川普或是拜登上台都會是狂人政治, 很難預測發展, 川普就不用說了, 拜登連任之後沒有再選舉的壓力, 追求的是歷史定位, 一定會非常左派作風, 大撒幣給底層人民以及繼續給中產階級加稅, 亂花錢沒有財政節制, 很可能通膨會再起 與金融風暴, 川普在金融與經濟上會處理好很多, 但是川普是狂人而且仇恨值超高

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 13:51:52

a000000000 01/29 13:48我覺得尼想太多 hbm效能等級的東西要放到edge

a000000000 01/29 13:48等葛十年看看

rebel 01/29 13:57知道你討厭拜 但拜不是一個人就可以控制美國 拜要

rebel 01/29 13:57灑幣 一堆人就不會同意 他不選了其他人未來都不選

rebel 01/29 13:57了嗎

william85 01/29 14:04

roseritter 01/29 14:15那這麼一堆人 之前出來有擋住拜耍腦包嗎 喝

rebel 01/29 14:20那時沒通膨 現在通膨都燒成什么樣了 拜登最後一波

rebel 01/29 14:20灑幣不就被擋下來了

那時已經有通膨, 大撒幣的名稱還是非常諷刺的"降低通膨法案": 為遏止通貨膨脹惡化以及應對全球氣候變遷問題,美國總統拜登(Joe Biden)於2022年8 月16日簽署通過4,370億美元支出的《降低通膨法案》(The Inflation Reduction Act)

https://stli.iii.org.tw/article-detail.aspx?no=55&tp=1&d=8918

這次大通膨以及2022年股市大跌, 拜登必須負起最大的責任, 當時民主黨躺贏, 所以根本不在乎通膨 亂花錢, 現在被川普壓著打, 就不敢再大撒幣, 但是我對拜登與民主黨有信心, 要是這次選贏一定會大撒幣

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 14:26:14

kis28519 01/29 14:24

rebel 01/29 14:29現在的參眾議院又不是都在民主黨手上 認為憑拜登就

rebel 01/29 14:29可以大灑幣我覺得你想太多 我寧願相信美國的制度而

rebel 01/29 14:29不是拜或川的個人

qweaaazzz 01/29 14:44

SILee 01/29 14:45你有點扯過頭了。他這陣子都沒有提大撒幣法案主要是

SILee 01/29 14:46眾院被掐住了,提了也沒用。後面還有更重要的法案讓

SILee 01/29 14:46他火在燒,輪不到撒幣這件事。

yaehsin 01/29 14:54推TQQQ

dangurer 01/29 15:10收到打收到!

BryceJames 01/29 15:16覺得不可能 edge無法散熱注定只能大模型只能server

BryceJames 01/29 15:163 5 年內edge超越server太樂觀

BryceJames 01/29 15:17而且大模型訓練只會越來越多...

popcorny 01/29 15:25我2021的MBP跑LLM mistral-7b 已經嚇嚇叫了,edge

popcorny 01/29 15:25沒有想像中那麼遙遠. 應該很快就大爆發了

aegis43210 01/29 15:27訓練是另一回事,在終端訓練也太沒效率

終端不做訓練, 終端是做推論, 當大部分應用訓練完成/成熟之後, 就是在終端的推論應用, 這時候需要的是edge AI

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 15:29:09

neo5277 01/29 15:33下個接棒的應該是居家機器人了吧

previa 01/29 16:18我2008,2009年在用CUDA做GPGPU應用時就覺得OpenCL會

previa 01/29 16:19有機會超過CUDA,現在已經幾年了。

previa 01/29 16:2010多年過去了還沒超過,核心還是在開發的編譯優化上

previa 01/29 16:20CUDA/OpenCL都非常依賴數據從CPU<->GPU間的數據搬移

previa 01/29 16:21好的Compiler會自動搞定一大堆異質架構的存取優化

previa 01/29 16:21不然早期的CUDA你開發還要去記記憶體架構跟cycle

previa 01/29 16:22時間差,人工想辦法去interlace 讀取加大平行度

previa 01/29 16:22真的麻煩。最近幾年沒跟進,不確定現在怎樣了

previa 01/29 16:25理論上只要克服這點,OpenCL應該就可以追上CUDA

previa 01/29 16:25但是這也是比較難的點,Vendor自己開發的跟開源的

previa 01/29 16:26肯定在相容性跟優化上還是有一些差異。

ProTrader 01/29 16:41AMD跟客戶大廠應該會認真做縮小跟CUDA的差距

ProTrader 01/29 16:42但要說贏過CUDA就很難 至少短時間不可能

jeff918 01/29 17:46這樣看起來聯發科的風險

jeff918 01/29 17:46會是中國被禁運

szeretlek94501/29 17:50上面說大模型越來越多,那有沒有小模型也越來越多,

szeretlek94501/29 17:50而且現在好幾篇論文都在寫小模型在特定環境甚至比大

szeretlek94501/29 17:50模型的表現好。況且現在注重的是“有效的”參數而不

szeretlek94501/29 17:50是越多越好

ImCPM 01/29 17:55這樣手機pc nb不就要噴爛了

除非你要超前部署, 不然還早, edge AI 快速成長也要一兩年後, 超過 server AI 大概要三五年後, 也就是三五年後有大量的AI應用 與平台之後, 才會開始噴 pc nb 手機

※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 18:00:02

s1001326 01/29 20:48請問買SOXL可以嗎? 想要分一點倒TQQQ

jamesho8743 01/29 21:08opencl要追上cuda還有很長的路要走 重點是這些優化

jamesho8743 01/29 21:08最佳化誰來做 這些都是很專精且硬體相關性很強的 以

jamesho8743 01/29 21:08AI大模型的訓練量差個5%效率就是很多錢

jamesho8743 01/29 21:11這也是nvidia贏amd 的原因 硬體就算不輸 軟體的差距

jamesho8743 01/29 21:11不是一時半刻可追

jamesho8743 01/29 21:18大公司如微軟能自己拉個軟體team來優化amd的硬體

jamesho8743 01/29 21:18 找到不只會cuda還能精通其他平台的強者 中小公司只

jamesho8743 01/29 21:18能乖乖用nvidia

x3795566 01/29 21:48蛤 為啥不是SOXL?

r7544007 01/29 22:38天下程式一大抄 opencl要贏Nvdia要多生出幾本教科書

r7544007 01/29 22:38讓大家抄

waitrop 01/30 03:46我來寫一本也開課到YouTube 好了

ohlong 01/30 09:38大家都只想到效能 沒人想到成本的問題 而且llm要切

ohlong 01/30 09:39分也不是辦不到 如果能切分還能去互相驗證model有

ohlong 01/30 09:39沒有失真 大公司就不必耗這麼多電力算力成本在可能

ohlong 01/30 09:39沒什麼投資報酬率的結果上

ohlong 01/30 09:49但現況edge一定是validation 為主

NicholasTse301/30 12:30巨頭不包含微軟嗎?

我說過很多次了, 我在討論的是硬體與IC 晶片的部分, 所以沒有談到微軟 微軟是目前AI 應用平台與模型的領先者, 第一名的地位, 但是我們並沒有討論應用平台與模型

※ 編輯: waitrop (76.103.225.6 美國), 01/30/2024 15:13:56