Re: [請益] AI用途,現在直接買顯示卡 ,還是等50
沒預算,那就軟體部份多研究一下吧。
先試試,SVDquant。https://github.com/mit-han-lab/nunchaku
普通來講,imageAI的quantization效果很差,所以幾乎都還在fp16/bf16。fp8已經是可以接受的極限了。
但SVDquant可以壓縮到int4,效果可接受,vram需求只要1/3。主要支援FLUX
SVDquant的方法也被unsloth拿來壓縮deepseek-r1,據說2bit的效果比傳統4bit強。
再來就是,雖然不像llama.cpp,可以把layer分到不同gpu上。imageAI普通來說,需要好幾個models來跑,所以我們可以拆開來分在不同的gpu上,減少vram的需求。
例如
https://www.reddit.com/r/StableDiffusion/comments/1el79h3/flux_can_be_run_on_a_multigpu_configuration
https://redd.it/1el79h3
或者
https://github.com/neuratech-ai/ComfyUI-MultiGPU
這樣,你就可以另外買16GB的4060ti再撐一下。
不過這設定是需要相當軟體經驗的。
最後,期待https://github.com/xdit-project/xDiT早點成熟。
這是transformer based,所以最早的SD反而不支持。
還有大概需要2的倍數的gpus,單數不行,相同的會比較好。
imageAI因為沒有llama.cpp這種東西存在,所以多gpus的支援不好。所以....
※ 引述《evonne38 (38evo)》之銘言:
: 目前AI繪圖用3060 12g撐著,但實在太慢了,VRAM也不夠
: 原本想等到2/20 5070TI,但看版上大大文章和新聞
: 可能到時候根本買不到,甚至性價比根本不高
: 還是要趁現在還沒偷加價,直接挑RTX4070tis
: 4070tis 4080s 5070ti VRAM都是16g
: 但不知在AI運行上三者是否差異會很大
: 電供也準備升級850w atx3.1(聽說海韻會比較好)
: 本來有考慮A卡,但大家都說A卡不適合用在AI
: 因為預算有限,無法買到5080以上甚至5090
: 謝謝大家~
--
Hunyuan 可以啊
4080s + 4060ti 850w不曉得給不給過
不知道怎麼設定多顯卡跑QQ
逛個電蝦也能看到韓松的github 太牛了
爆
Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售你劃錯重點, 先不論這篇論文的可行性與實用性, 你真的劃錯重點了 算力重要嗎? 重要但是不是影響販售/採購晶片的主因,![Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售 Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售](https://i.imgur.com/GxJuHEib.jpeg)
85
Re: [閒聊] 欸不是,買個顯卡還要買驅動= =另外開一篇 在Docker/Container概念開始流行之前,多重環境同時執行的概念 從"模擬",也就是用軟體進行binary translation,這種只靠CPU進行軟體運算的 環境 到"虛擬",在原生硬體上建立多個"楚門的世界",並且都享有原生硬體效能47
[請益] VRAM比較大的顯卡本宅稍微有點AI需求 所以必須買N家的卡 3060ti 8GB 感覺太小 3060好像有12GB的 但好像版友不太推 看到新聞好像7/18要開賣4060ti 16GB 499鎂 好像還負擔得起![[請益] VRAM比較大的顯卡 [請益] VRAM比較大的顯卡](https://i.imgur.com/YgZ3DZLb.jpg)
44
[請益] 3080 VRAM溫度高成這樣~怎麼會是挖礦首選?小弟菜逼巴一枚 問一個弱弱的問題 3080使用的GDDR6X 隨便一開挖就100度以上 就算DIY透過改散熱貼 頂多降低個10度內![[請益] 3080 VRAM溫度高成這樣~怎麼會是挖礦首選? [請益] 3080 VRAM溫度高成這樣~怎麼會是挖礦首選?](https://i.imgur.com/qgrXcC1b.jpg)
27
[情報] AMD很高興幫助Intel和Nvidia啟用SAMAMD is happy to help Intel and Nvidia enable Smart Access Memory 連結: In context: Smart Access Memory, or SAM, is a software/hardware trick that takes advantage of a PCI Express feature called Base Address Register. So far, only AMD is using with their new Radeon RX 6000 GPUs to eek out a little![[情報] AMD很高興幫助Intel和Nvidia啟用SAM [情報] AMD很高興幫助Intel和Nvidia啟用SAM](https://static.techspot.com/images2/news/ts3_thumbs/2020/11/2020-11-22-ts3_thumbs-0d6.jpg)
18
[閒聊] LLM 推理用機器由於最近 LLM 發展越來越快,剛好自己也有一些 LLM 的需求。 但又不想要使用 OpenAI 或是其他供應商的服務。 從前幾個月開始就有想要自己弄個機器來架設服務的想法。 最近開始也對高參數的模型越來越好奇,但由於大容量 VRAM 的 GPU 實在是買不起,所以想說是不是轉用 CPU 來玩玩看。 我看了很多技術分析和 Benchmark,基本上都說 LLM 的 inference 目前是 memory bound,也就是 memory bandwidth 是瓶頸。![[閒聊] LLM 推理用機器 [閒聊] LLM 推理用機器](https://img.youtube.com/vi/oDIaHj-CGSI/mqdefault.jpg)
12
[閒聊] 次世代主機的規格整理這是videocardz整理出來的規格表 CPU和GPU都是基於Zen2 8C16T和RDNA2 主機 PS5 Xbox Series X Xbox Series S CPU最高時脈(可變動) 3.5GHz 3.8GHz 3.6GHz![[閒聊] 次世代主機的規格整理 [閒聊] 次世代主機的規格整理](https://i.imgur.com/FiwDZpIb.jpg)
11
[請益] Linux 雙顯卡工作站小弟只懂寫軟體平常都在Windows底下開VM裝Linux工作 現在打造一台工作站想省掉虛擬化 用原生純純的Linux跑Docker, K8s, 也可以裝個Windows虛擬機使用Office系列 或是Multiple GPUs on the same machine vs Distributed GPUs9
[閒聊] 遊戲用3080需要換VRAM散熱貼嗎?今天只談遊戲不談科學運算 3080普通玩3A大作也會飆到100度以上 看到換散熱貼後VRAM降低10-20度 總覺得對卡來說整體是好事 雖然會把部分熱能導回GPU3
Re: [請益] 機器學習 Nvidia Tesla T4 or Quadro RTX目前確實打算等GTC 2020後再打算,因為只有一個月左右時間可能還能等 說一下目前做的功課 1. 參考 fo40225 大的文章決定除GPU部分的配置 #1SxhRJ80 (PC_Shopping) 2. Nvidia vGPU認證資料![Re: [請益] 機器學習 Nvidia Tesla T4 or Quadro RTX Re: [請益] 機器學習 Nvidia Tesla T4 or Quadro RTX](https://lambdalabs.com/hubfs/Imported_Blog_Media/BestGPUsforDeepLearningBlogHeader-2.png#keepProtocol)