[請益]AI大模型記憶體不足,市面上128G RAM?
各位前輩大家好:
老弟又又又又又來打擾大家了(真不是洗文)
是這樣的,自從我可愛的新電腦啟動組完後,經過多次嘗試(幹你的GROK 不跟我說直接下.GGUF的類型就好,讓我下載.safetensors類型,害我浪費了好多天)
然後昨天好不容易DeepSeeK V3.1 Q4版本下載完,開始要運行起來時,就給我出現:
Error: 500 Internal Server Error: model requires more system memory (326.4
GiB) than is available (252.3 GiB)
就是記憶體不足,經過多番嘗試,最後只能無奈用較低版本的Q3L,想了一下後,覺得錢都在花了,要不乾脆把兩條64G換成兩條128G的,在加兩條64也有考慮,但這樣好像不太好
但是剛剛上了實價屋的網站查了一下,似乎沒有128G單條的,然後又去對岸的掏糞上查,是有的,但老弟我對這方面較不熟悉,不知道各位有甚麼推薦的品牌型號嗎?
謝謝各位
--
你有算過即使真的跑得起來 速度比你
可以接受嗎?
單條128就算中國品牌也不多吧 很多能選嗎?
好像鬼島沒啥地方賣吧
是阿 我們國內真找不到~XD
※ 編輯: Luxus (122.100.85.163 臺灣), 08/31/2025 10:38:27 ※ 編輯: Luxus (122.100.85.163 臺灣), 08/31/2025 10:38:49U DIMM目前顆粒最大應該就32Gb所以
兩面最多64GB, 如果你要128那就是
要3DS(一種可以塞兩個或以上晶片的
技術), 成本較高所以極少廠商願意
出這種產品,這種技術目前僅大規模
應用server市場而已
另一條路就是跟server一樣用x4顆粒
(這樣可以多貼一倍的顆粒),但一
樣我不確定PC市場有沒有人出這種產
品
掏糞上有看到在賣 之前FB好像也有看到介紹 但是我們國內就好像一直沒找到~那如果插4條64G是否也是能考慮的方案呢?
※ 編輯: Luxus (122.100.85.163 臺灣), 08/31/2025 10:55:36讓我想到8299董狂吹adaptive.不過這
是笑話XD
現在主板支援的單支DIMM上限是多少容量
奴家真的不知道~所以才上來請教各位前輩~
※ 編輯: Luxus (122.100.85.163 臺灣), 08/31/2025 11:12:07別浪費時間搞這種
單條DDR5現在是64G 支援度基本沒問題
兩條就128 四條就256 但筆電型就兩條
我是台式機 上上週剛啟動完5090~組好使用中
※ 編輯: Luxus (122.100.85.163 臺灣), 08/31/2025 11:24:0364G也是今年剛出的 沒有更高容量了
先撇開龜速問題,想跑這麼大的模型不該用家
用主機板,要用上伺服器用的,光記憶體插槽
跟pcie插槽就可以多出很多條
去用雲端...不要本地跑啦
感謝大大指教 是我想得少了~ 那請問現在彌補的方式 我若加上兩條64的可行嗎?
※ 編輯: Luxus (122.100.85.163 臺灣), 08/31/2025 11:28:17要不要試試看swap到optane來增加容量
速度可能會降好幾倍 但至少容量夠(x
deepseek 都忘記這個東西了 原來還有
呼吸 爆紅一個禮拜就直接消失
問就直上Pro WS WRX90E-SAGE SE
900P / 905P / DC 4800X / 5800X
買TR啊,4通道8DIMM頻寬更高
905p還買的到嗎?
上次新蛋300美買一個 太美了
普通板子有支援單條128?
其實我也蠻好奇www家用這樣用起來速度真的
ok嗎?
STABLE DIFFSTION 改5090後用起來是真有感 出圖快了很多~
我覺得如果AI模型只是玩票性質的話 就線
上租一租就好 高階機當作打電動舒壓用
其實AI模型現在也差不多飽和了 卷成那樣
等應用就好
現在進場想要玩出什麼新花樣 其實蠻難的
你有灌 linux?
留著打電動跟生生玩票性質的圖就好,這麼大
的模型本地想跑q4跟速度可以接受~20tps,預
算先x3,x4,但花這麼多錢還只不過買api來用
效果
要不要試試 virtual memory 只是效果
不知道是不是你要的
買虛擬機 要多大有多大
上機架2-4U的24條隨便你插還能上顯卡
討論板不要用太不雅的字,即使是吃飯飯
時看到也很不舒服,即使是中國品牌,把
別人品牌用ㄈㄣˋ這個字,只是貶低自己
忘了給噓
弄些虛擬的跑跑看,騙不過嗎?
DDR5 5600 64GB一條5000兩條1萬
128GB 只有eco但你的主機板不支援
DDR5 ECC的腳位不一樣了
原來對岸來的小弟弟不知道有鹹魚
我是不知道您用了多少次鹹魚,依我在上海住了7年的經驗來說 鹹魚比拚夕汐還坑 平常買些無關緊要的還行 高價的東西不敢在上面買
我也覺得等應用就好
一般家用的主機板 ram最高就支援到25
6G 就算你的到也還是不夠啊
d4幾年前就裝過128g*4=512g 標256g參考用
udimm 128g*4
x99時代ram還被小石頭rd借去改bios
最近被問到煩了剛好寫過一篇到底什麼硬體
可以跑入門AI https://www.lordmi.com/20
25/08/2025ai 不過我還是建議你真的沒必
要跑localA I除非你的預算有300k以上
插四條
這還不簡單,直接換主板CPU,WRX90+999
5WX,插滿8條64G跑6000輕輕鬆鬆
兩條128G都要快60K了,真能用你會買?
對岸騰訊玄武實驗室發在微信上der實測文章
標題:「不到 4 万元的 DeepSeek-R1-671B-Q
8 部署方案」 這邊4萬4人民幣 實際總花費35
686 rmb 這篇der重點4純粹用Amd Epyc 9005
系列cpu搞一台local ai 峰值生成速度 7.17
tokens/s 已經在可用範圍der下限 連結點進
去有實際運行影片 尼如果換成Q4 der話token
數大概直接變乘以2 記憶體容量可以再減 預
算更省 有機會壓在10萬台幣以下
目前一版主板是64*4=256G吧,不過9950X3D
上限好像是192G,Win11家用版是128G
不知道有沒有人玩過CXL
前提是主機板/CPU要support
沒 我9950x3d icu285k都插過4條64沒問題
有隱私需求本地ai還是有市場啦
AMD官網標示7000/9000只支援128/192GB,
是因為發售時的記憶體只出到單條32/48GB
或已經出了更大的容量但還來不及驗證
一堆人在那邊api就是完全不懂本地的好
速度更不是重點 放著給他跑就好了急什麼
你要單條128GB要上RDIMM(不一定要3DS)
RDIMM消費級平台不支援,要上到TR/EPYC
上面說DDR4 UDIMM 128GB的是哪條
有這種東西??
速度沒到一個基本門檻根本不能日常用好嗎,
尤其現在一堆thinking的模型,光耗在思考裡
面就飽了,一來一回對答context越大處理越慢
,更不能用,難道你要1x分鐘對答一次這樣用
是嗎...
671b? 128G一樣爆
跑oss:20b 在處理一些像檔案整理或打
屁聊天就很好用了
Q4大概還要400G,建議換個模型
你可以先弄個gptoss120b啟動看看效果
,不行再往下嘗試20b版本的
認真說花錢把各大平台的額度用光還比較省
先用雲再買GB10
標限制實際裝機測就知道標好玩的win7時代
就裝過.. goog資料中心拿出來玩的東西上
網搜都搜不到 一顆ssd就一台國產車價
gptoss20b就很好tool calling了但就是
調整還不夠穩定120b最近兩版ollma OOM
不然virtual memory可以跑 但就慢很多
安全一些的tool calling 要預留記憶體
別想了 你組不贏人家商用server的
你這就是想改造 BB 槍問怎麼像真槍
方向不對事倍功半,或是說錢倍功半?
確實 缺乏經驗 本來就想著用SD出圖 但是用了幾天就開始發瘋 想試試看AI~果然人心不足蛇吞象~XD
※ 編輯: Luxus (122.100.85.163 臺灣), 08/31/2025 17:32:45671b, 想到之前拚老命才裝出來 512G RAM
先有 256G ECC/Reg, 後來才找到 64x8...
這條路還是難得通 # TR-39x5 + 8條RDIMM
下一台想要 1T... 完全看不到希望的 XD
用CPU跑量化版還得是Q4或Q8 不然輸GPU
商用server就選TPU平台 性價比才會高
8支128G怎麼看都超過這次拚出來的總花費
撿二手 server 不是條好學的路...
就算走雙Xeon的話要找得到16支64G也很難
雙cpu之前看有人實測 tokens/s狂降 比單cpu
還差 似乎跨cpu通信有問題 A和I 都有同樣症
頭der樣子
我記得雙CPU主板大多支援只插一顆吧
只插一顆 CPU 通常不能放滿 16 支 RAM...
目前觀察搞純cpu local ai機 硬體零件之重
要性 從最重要der開始排:1. Ram容量(必須
大於模型size 否則免玩)2. Ram速度 3. CPU
核心數和時脈
可不可以問個問題,美光128G跟金士頓64G
效能實際上會落差很大嗎?想要高容量
但又怕效能拉垮太多,還是體感還好?!
你要多大的有多大的?台灣業務都可以談,只
要你有錢
主機板相容性:128GB單條RAM多數為伺服器專
用,需確認主機板支援DDR4 ECC LRDIMM/RDIMM
,普通桌機板無法安裝。
抱歉 沒說清楚 AM5有支援到128G
金64G 6000 30CL VS 美光128G 5600 46CL
目前是模擬器多開,一定是選後者
但如果以後要到臭打遊戲玩點其他的
會不會因為時脈等因素,後者體驗有落差
要調吧
rdimm一般u不能用要注意
ryzen能用的是ecc udimm,比rdimm再
貴一截
另外板子也有差,am5只有大小石的板
子有lay ecc線路,mg的花大錢買ecc
udimm也沒用
rdimm TR也不能用 要上TR pro
用雲端GPU吧...
又不是要解什麼數學難題 用671b幹嘛
20b爽爽用
120b慢的要死 毫無用處
我其實是用來輔助寫武俠小說 目前看起來應該DEEPSEEK跟豆包文筆是最好的 GROK跟GPT都有點~~老外的味道 但是大家也知道 中國那邊限制的比較嚴格 有時候有些話題他就沒法顯示(情色 暴力 血腥)所以才想說下個模型在電腦上用,AI輔助是真的方便,有時靈感卡住了,問一下,常常會給你一些意想不到的突破口
※ 編輯: Luxus (122.100.85.163 臺灣), 08/31/2025 21:51:49用open web-ui 然後去串deepinfra的api
基本上開源模型都有很多第三方供應商
最後你還是會妥協付錢租API使用 :)
事實上用API才合理
因為你自己跑那麼大的模型 電費比API還
貴
TR就是用RDIMM 誰跟你TR也不能用
他要中文使用者的…味道跟繞開限制吧
然後AM5目前還沒有支援單條128G的
TR跟TR PRO在記憶體的差別是後者支援八通
道
第三方的API就是已經繞過限制的
而前者只支援四通道
騰訊der文章寫說用EPYC 9115 Default TDP 1
25W 沒特別耗電
Local ai = 永久買斷無額外付費 + 隱私無價
qwen 或 glm 也是中國的llm,模型小很多,本
地跑比較合理,要不要先試試這兩個的文筆看
看,另外你在網上平台遇到的限制,自己載下
來跑的多半也都有,除非有人另外做解禁版的
,可能要多翻找看看huggingface
J大 我下載的應該就是解禁版..
有沒有特別耗電 你要用生成同樣Token去
比
用CPU跑AI本身就是浪費電
文章說可以到7 但這是短input的情況
長input時能不能保1都不知道
講到解數學難題 Deepseek剛推出時有到官網
拿工數考古題考它 印象中考了快10題 題目種
類有ode pde 線代和證明 恐怖der來惹!計算
它全部答對 唯一錯der只有證明 而且基本上
也8算全錯 它只漏寫惹一兩個結果 同樣der題
目拿去問ChatGPT Claude Gemini根本8用看
錯der一踏糊塗!!
有沒有可能是資料庫裡有這些考古題?
芝奇有出64gx4的256g一套的,我剛剛買了,
但是...會讓你開機變慢,而且幾乎用不到超
過100g
可能把!ChatGPT之前也被爆說考前作弊偷看
題目 只4還特別拿台灣der考古題去訓練也太
屌惹 有der還可能沒電子檔
Mac studio 買一買就好
我剛剛用詞不精確 應是32*2=64 64*2=128
不是說單條64 128 抱歉
但是671B用CPU跑還要reasoning解出
題目可能要花個半天了吧
大容量ram開機很慢的 進BIOS開
memory context restore
本地還是會限制啊 還是你要fine tune
用你的桌機??
本地才有辦法不被限制
HHOWfs
V3.1就是個過渡模型 一樣有思考鏈過長的
問題 搭配token數不高的硬體你會等到天
荒地老,確定要為個過渡模型花大錢?
ECC udimm 比 ECC rdimm 便宜啊?!
udimm買新的比較便宜,撿垃圾的話比
較貴,大概是server用量比rdimm少吧
太折騰了
開memory context restore之後,MT6000變
成3600...
64GB*4=
放棄吧gpu你買不起,cpu就算讓你順利執行
了,一個字會耗你好幾秒才會出來,光是開
始可能就要三分鐘,人家上百萬不是花假的
,光是16gb的模型cpu就跑不太動了,更何況
上百gb
macOS這次更新不知為啥也不能跑gpt1
20b
倒是Apple自己有推出model了
要跑大模型最划算的是買Mac,用統一記憶體
跑GPU
別用PC了,你插RAM再多也只能用很有慢慢跑
,VRAM夠大的卡普通人買得起也叫不到貨
反而臭得要死的Mac變成local大模型最划算的
選擇
Mac studio 點上去三十萬不夠, 差不多慘.
但是難產的 DGX spark 也是十幾萬...
跟 AMD AI MAX 395 頂筆電差不多... 囧
這三家不知道最後到底哪個會比較好用...
73
[問卦] 現在買電腦RAM要插幾G才夠用?如提 小妹文組啦 之後也想自己組台新的電腦o'_'o 好奇一般人memory都用多少? 484要把能插的插滿才好?![[問卦] 現在買電腦RAM要插幾G才夠用? [問卦] 現在買電腦RAM要插幾G才夠用?](https://i.imgur.com/1WknG2Fb.jpg)
42
[討論] 小三學生推薦的ipad型號國小三年級的女兒 目前是用我很久以前買的iPad air 2 印象中是64G 主要用途就是 聽英文班的音檔 還有出國時在飛機上或旅館玩 麻糬貓/貪吃蛇樂園/豆腐女孩之類的遊戲 昨天女兒跟我說他今年的生日禮物想要一台新的ipad 說是電池很快就沒電,而且版本太舊好像有些app無法下載![[討論] 小三學生推薦的ipad型號 [討論] 小三學生推薦的ipad型號](https://i.imgur.com/liPaEasb.jpeg)
34
[標的] DeepSeek衝擊對蘋果卻是利多標的: NASDAQ: AAPL (Apple Inc. 蘋果電腦) 分類:討論 分析/正文: 昨晚科技股受到deepseek的衝擊而大跌,但是蘋果的股票卻是上漲收盤![[標的] DeepSeek衝擊對蘋果卻是利多 [標的] DeepSeek衝擊對蘋果卻是利多](https://i.imgur.com/Z3Us2ZDb.jpeg)
29
[請益] AMD395+跑AI到底合不合適呢看到AI大熱 本來想說買一張5060TI 16G 換掉3060TI(I5 11400 32G) 來當自以雲端AI伺服機,可是雖然5060TI 夠強 但記憶體就16G 似乎20B都不能跑 但感覺要長期開又很熱 之前對岸395 配128G 感覺又太多 本身能跑 但是跑不動![[請益] AMD395+跑AI到底合不合適呢 [請益] AMD395+跑AI到底合不合適呢](https://i.imgur.com/aLFoBupb.jpeg)
10
[請益] 記憶體散熱片之前跑RL訓練時64G還滿不夠用的,這次打算組128G以上 不過目前64G * 2只有美光,而且沒有散熱片 想說買白色的散熱片自己貼,但逛了一圈市面上幾乎找不到 想問問看這東西要到哪找 退而求其次插32G/48G * 4好像也不是不行![[請益] 記憶體散熱片 [請益] 記憶體散熱片](https://i.meee.com.tw/tjzBdpr.jpg)
1
[Vtub] 為什麼原○屋和○亞都不賣單條32G惹?4這樣的 剛剛看到安潔換新電腦惹 記憶體從64GB升級到128GB![[Vtub] 為什麼原○屋和○亞都不賣單條32G惹? [Vtub] 為什麼原○屋和○亞都不賣單條32G惹?](https://i.imgur.com/m2pBQQdb.png)
7
Re: [問卦] 現在Ram沒有64G以上根本不夠用吧????XVK : + VKD3D更是完美組合。 裝linux記憶體也吃很兇好不好= = 你作業系統有什麼影響? 大頭根本不在這 大頭在chromium上4
[硬體] iMac 2020 ram的選擇各位好, 今日因服役中的老iMac不太行了, 情急之下需購入2020版本的27寸最高階那款, 但目前卡在記憶體自行升級的選擇, 希望是能一次衝到128g,3
[購機] iPad Pro 12.9 128G / iPad Pro 11 128G範本格式 (請依序謄寫,禁止更動格式) ────────────────────────────────────── 1.預算範圍/考慮機種: iPad Pro 12.9 128G / iPad Pro 11 128G / iPad Air 5 256G 2.使用需求:3
Re: [菜單] ~2K鎂QuPathPS網頁多開 該等單條64GB RAM嗎?黑五時實際購買的規格如下: CPU (中央處理器):i7-14700K MB (主機板):ASRock Z790 Riptide WiFi RAM (記憶體):未買 VGA (顯示卡):Sapphire PULSE Radeon RX 7800 XT![Re: [菜單] ~2K鎂QuPathPS網頁多開 該等單條64GB RAM嗎? Re: [菜單] ~2K鎂QuPathPS網頁多開 該等單條64GB RAM嗎?](https://cdn.videocardz.com/1/2023/12/MSI-256GB-HERO.jpg)