Re: [新聞] DeepSeek低成本破壞價格 恐讓AI產業血流
※ 引述《madeinheaven ()》之銘言:
: 三星早就看到低成本推理晶片的未來了
: 三星明年推 AI 晶片 Mach 1,採 LPDDR 而非 HBM 記憶體
: https://technews.tw/2024/03/21/samsung-to-launch-ai-chips-mach-1/
: 節錄:
: 三星 Mach-1 設計專注於提供專用於推理的加速功能,特別適合於邊緣計算應用。Mach-1: 是基於專用積體電路(ASIC)設計,配備 LPDDR 記憶體,適合邊緣計算應用,能在推理: 過程中大幅降低所需的記憶體頻寬。
: 與現有設計相比,Mach-1 能將推理所需記憶體頻寬大幅降低約 0.125 倍
: 另外下一代Mach-2正在開發
: Deepseek再發新模型 輝達急了:未來需要更多AI晶片
: https://www.ctee.com.tw/news/20250128700047-430704
: 節錄:未來推理需要大量輝達 GPU 和高效能網路
: NVIDA都說了未來推理需要大量GPU
: 所以未來低成本的推理晶片才是王道~!!!
NVIDA說的確實是對的
跟他急不急沒什麼關聯
transform模型的趨勢是
只要模型越大,效果就越好
這已經是鐵打的事實
無數paper都已經證明過這樣的結果
所以這年頭推出的模型一個比一個大
模型的大小是沒有極限的
極限在於錢不夠,沒錢買算力做更大的模型
先不論DS有沒有造假
假設DS說的都是真的好了
他也開源了
那接下來就很簡單啦
做一個更大的模型
表現一定更好
這是無庸置疑的
未來算力絕對不會太少
只有不夠的問題
--
※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.171.130.202 (臺灣)
※ PTT 網址
38
[問卦] 財經網美說Deepseek開發成本謊報中國AI公司DeepSeek(深度求索)以低晶片數開發出與OpenAI O1相當的新模型,經過查 詢成本降低98%引外界矚目,對此財經網美胡采蘋認為,DeepSeek的母公司「幻方量化」 聲稱,他們是用A800、降速晶片開發,這根本是無從驗證的說法,且Deepseek沒有報上背 後語言模型的成本,開發成本必然是謊報的。 但deepseek成本降98%指的根本不是開發成本![[問卦] 財經網美說Deepseek開發成本謊報 [問卦] 財經網美說Deepseek開發成本謊報](https://img.ltn.com.tw/Upload/business/page/800/2025/01/27/phpUGAksb.jpg)
61
Re: [請益] 費半成份股全線崩盤 怎麼辦?DeepSeek這塊有幾個看法 Training端就等之後瓜出來再吃 在Inference這塊 因為受限於MoE 所有推論成本可以降下來 但需求變高的是用記憶空間 和各個node之間的通訊開銷 以及軟體上cpu/gpu的load balance 以deepseek v3來說 600GB+ fp8 需要許多平行運算 這意味通訊瓶頸很重要 因為在切換專家時候 延遲會因此也跟者追加 而記憶體需求開銷也很大![Re: [請益] 費半成份股全線崩盤 怎麼辦? Re: [請益] 費半成份股全線崩盤 怎麼辦?](https://i.imgur.com/1glBeN3b.jpeg)
6
[討論] 青鳥別慌張,創世神說話了我們在1/21台灣AI產業年會發佈了Taiwan AI Labs訓練的小專家模型FedGPT。 幾個重點: 1. 算力很重要但不是全部,資料、演算法也是。前面是硬體功夫,後面是軟體功夫。 2. MoE 不是新觀念、是趨勢,未來是專用落地小模型的世界。在我們年會就提到AI永續 會是全球下一階段的努力,甚至更早與台大陳疬悎v開源TAME時就提及多專家多模態小4
Re: [新聞] DeepSeek爆紅引AI「股瘟」!ASML歐股開盤算力愈強,模型愈強~ 就算deepseek 真的不用高階晶片就能訓練出說不弱於openAI o1 的模型, 那未來新的模型在有高階晶片的加持下, AI 不是會發展的更快、更難以想像嗎? AI 發展的更快,商用、消費用的領域愈多,對半導體的需求愈大,3
Re: [黑特] 民進黨支持者思想真的很幼稚青鳥跟塔綠班們 都不知道DeepSeek是開源的 所以才有那些奇怪自卑推論 這次中國產生DS 其實對全世界都是一個正面的發展 也就是 花小成本也可以 作出 大成本模型效能的AI語言模型 重點是這個模型的程式碼跟架構 還跟全世界分享 也就是 台灣人照抄 也可以作出自己想要內容的 DeepSeek3
[問卦] Deepseek不就是說MoE便宜又好用而已?安安 在AI產業的 MoE也不是什麼太陌生的題材 市面上好幾個MoE模型 加上最近的小模型趨勢 DeepSeek只是證明MoE加小模型 便宜又好用 整體還是在Transformer架構之下搭起來的 運算量還是在那邊 花更少的資源做一樣的事情 不就代表一樣的資源能做更多事?1
Re: [問卦] 有鄉民看過deepseek強在哪了嗎?即便是這樣算力的需求還是向上吧 原本需要計算100次的東西新的模型只需要算1次 但人類肯定能找出100甚至10000倍的計算需求啊 就像當年電腦從1khz 到現在 5ghz且多核心以上 整天喊效能過剩,![Re: [問卦] 有鄉民看過deepseek強在哪了嗎? Re: [問卦] 有鄉民看過deepseek強在哪了嗎?](https://img.youtube.com/vi/JTyyqnAlFrU/mqdefault.jpg)
Re: [討論] 中國作出deepseek 挺台灣呢?點麵線?臺灣沒你想像中差。 1/21台灣AI產業年會,就發佈了Taiwan AI Labs訓練的小專家模型FedGPT。有興趣大家自 己去了解後就知道臺灣很有競爭力,ㄤ我們不要妄自菲薄。 算力很重要但不是全部,資料、演算法也是。 至於通用跑分,其實那就像大學或研究所 畢業成績只是一個開始。通用跑分在過去的經驗,中國一般能“弄”到超英趕美,更重要
Re: [討論] 塔綠班為何沒辦法接受Deepseek崛起: 臺灣沒大家想像中的差。 1/21台灣AI產業年會,就發佈了Taiwan AI Labs訓練的小專家模型FedGPT。有興趣大家自 己去了解後就知道臺灣很有競爭力,ㄤ我們不要妄自菲薄。 算力很重要但不是全部,資料、演算法也是。 至於通用跑分,其實那就像大學或研究所
![Re: [新聞] DeepSeek低成本破壞價格 恐讓AI產業血流 Re: [新聞] DeepSeek低成本破壞價格 恐讓AI產業血流](https://i.imgur.com/UyT88fLb.png)
![Re: [新聞] DeepSeek低成本破壞價格 恐讓AI產業血流 Re: [新聞] DeepSeek低成本破壞價格 恐讓AI產業血流](https://g0v.hackmd.io/images/media/HackMD-og.jpg)
![Re: [新聞] DeepSeek低成本破壞價格 恐讓AI產業血流 Re: [新聞] DeepSeek低成本破壞價格 恐讓AI產業血流](https://i.imgur.com/L33RGzFb.jpeg)