PTT推薦

[請益] 深度學習用3090會有問題嗎

看板PC_Shopping標題[請益] 深度學習用3090會有問題嗎作者
cs410567cs
(dinosaur)
時間推噓19 推:19 噓:0 →:17

小弟kaggle新手
拿不到競賽金牌的廢物
看到前幾天3080/3090玩遊戲有些災情
我對硬體不是很了解
請問如果用3090長時間跑DL的話(1天以上)
會發生崩潰情況嗎?
需要降頻跑嗎?還是沒差?

另外 如果目前打算1張3090
以後最多用2張跑的話
有需要鼓風扇嗎
還是3風扇卡就可以?

2張3090的話 大概要幾瓦?
1300W夠嗎
在考慮電源要不要先買大點


--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.42.223.113 (臺灣)
PTT 網址
※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 12:55:52

william456 10/02 12:56雙卡700w

william456 10/02 12:56https://youtu.be/y4fb_R5Ogw0

謝謝

scott771128 10/02 13:05三風扇卡應該可以搭配PCIE的擴充線,不過機殼要夠大

所以以後要雙卡 一張要直立?

tomlin12128310/02 13:12什麼樣的模型需要用到3090 好奇XD

efficientnet(b5-b7) 圖片不壓縮太多 很容易ram不夠

tomlin12128310/02 13:13該不會是dlss吧

※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 13:27:32

Memorykiller10/02 13:24現在Tensorflow 跟 Pytorch 對CUDA11支援度還有點小

Memorykiller10/02 13:24問題 我用3080+pytorch跑出來的效能跟2080ti差不多@

Memorykiller10/02 13:24@

我覺得效能到是其次 ram不夠有些模型不能試

※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 13:29:38

asd21714 10/02 13:56RTX 6000或8000(?

DRnebula 10/02 14:02相關程式驅動還沒跟上 目前不推 買了有點後悔= =

andylee303 10/02 14:12現在多數模型都還不支援cuda11跟cudnn8吧

andylee303 10/02 14:12感覺可以再等等

tetani 10/02 14:12用1080ti跑才是最好的選擇

目前手邊沒適合的GPU 所以應該還是會上3090

※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 14:34:34

HeterCompute10/02 14:432808ti有tc完勝1080ti

jeff40108 10/02 15:11有這個錢不如再等等吧

jeff40108 10/02 15:11老黃擺明了3090不讓你當運算卡

所以3090當運算卡問題在哪? 上代不是一堆人用2080ti x4嗎

※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 15:15:52

shihkai 10/02 15:31$錢的問題阿 3090是給有8K需求的

tetani 10/02 16:022080ti買一張 1080ti都能買2張了 效能還勝過

jeff40108 10/02 16:13驅動被鎖了啊,還不如等3080 20G

jeff40108 10/02 16:14同樣價格可以買兩張

sachialanlus10/02 16:533080 20G 預測1000$

sachialanlus10/02 16:54老黃就是討厭你拿遊戲卡來跑運算

s06i06 10/02 17:33 Linux 驅動沒更新 應該沒被鎖

stosto 10/02 17:44泰坦啊

上代泰坦比不過這代3090吧

※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 18:47:51

ReverieKai 10/02 18:48CUDA和cnDNN版本要注意一下

Bujo 10/03 12:22更新cudatoolkit 11 pytorch 可以跑

scott771128 10/03 13:123090算Fp16的核心跟Titan比較少,影響到的是

scott771128 10/03 13:12mix precision跟單純跑FP16運算的部分

scott771128 10/03 13:13但是目前一些文章實測還是比Titan RTX快,但是就算

scott771128 10/03 13:13FP16的提升不如預期的多,24G VRAM就是有它的價值在

scott771128 10/03 13:15之前PCIE擴充可參考這篇

scott771128 10/03 13:19https://tinyurl.com/yyokbt4n

iWRZ 10/03 22:13顯卡VRAM價值比FP16高太多

iWRZ 10/03 22:14買不到3090或要跑很多模型只能用NCCL跑了

FreedomTrail10/06 13:37好奇問一下若剛入門兼想打電動選3080,萬一vram 不

FreedomTrail10/06 13:37夠用,分割dataset還試的下去嗎?想用時間換金錢@@