Re: [問卦] 一堆人在搶5070Ti顯卡
※ 引述《abcd5566 (塔綠班都垃圾)》之銘言:
: 看電腦板怎一堆人在搶5070Ti顯卡
: 我也在等5070Ti配9800X3D的套裝機出來
: 這年頭連70Ti都會大缺貨
其實現在有很多框架可以降低 LLM 模型的 VRam 需求量,
我不久前看到一個可以用 8G VRam 跑模型的框架.
當然記憶體大有它的好處,
1.可以跑參數更大的模型,畢竟 7B 以下的 deepseek 是渣?
2.輸出 token 的速度會快一點,畢竟女的一秒叫十聲跟一秒叫二十聲的感覺就不一樣
不過如果你得用四十萬買十二顆 CPU 才能獲贈一張 5090 的話,那還不如...
--
讀者審校網試行版(2018/1/1 更新網址)
http://readerreviewnet.processoroverload.net/
(哲、史、法、政、經、社,人文翻譯書籍錯譯提報網)
◎洪蘭"毀人不倦"舉報專區
http://tinyurl.com/ybfmzwne
讀者需自救,有錯自己改...
--
自己在家裡做ai...
算圖跟A600還是ada來比怎麼樣都90划算
7B 什麼模型都滿差的
Deepseek 除了原生 671B 模型之外,
其他應該都是用 Llama 或 Qwen 蒸餾的
70b是我能接受的最低大小
但這樣也得要2張5090
好厲害,我只能自架1.5B
12GB VRAM 可以跑 14B 模型
現在我在思考自架local的必要性
到比較好的效果 代價實在高
等exo效率上來 多買幾台macmini來跑
不是礦就是AI,單純玩個遊戲好困難
有限的預算 只能在速度和智商之間選擇其一
但付費api 會有最難解的審查、資安問題
有這錢 不如去買Nvidia出的專用mini PC
nv 的 GB20 效能不一定會有你期待的好
因為它的 ram 是 cpu 跟 gpu 共用
而且它一台超過新台幣十萬
nv那台的壞消息 好像只是用來測試用
測試能跑起來 然後推送到大型的伺服器
系統記憶體夠大 可以安裝滿血版的AI
協助你開發而已 速度沒辦法當生產力工具
不一定要用GPU 不過那個速度就...
我只想知道這樣搞夏天電費多少?
爆
Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售你劃錯重點, 先不論這篇論文的可行性與實用性, 你真的劃錯重點了 算力重要嗎? 重要但是不是影響販售/採購晶片的主因,![Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售 Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售](https://i.imgur.com/GxJuHEib.jpeg)
68
Re: [閒聊] 5070賣549鎂有4090的效能?: : ---- : Sent from BePTT : 不要看看跑分就覺得5070能打409039
[情報] 中國5090 DeepSeek 大模型一體機需求爆發來源: 慘了!「GeFoce RTX 5090:DeepSeek 大模型 一體機」大爆發!用消費級RTX 5090,取 代專業級NVIDIA A100、H100、H200!可以跑7B、14B、32B、70B參數模型,拿來做AI工作 ,像是做現在很夯的AI語音客服、AI主播、AI照片處理、AI影片處理。DeepSeek AI殺手 級應用誕生,將對顯示卡供貨產生衝擊,將導致持續供不應求價格高漲的狀況!![[情報] 中國5090 DeepSeek 大模型一體機需求爆發 [情報] 中國5090 DeepSeek 大模型一體機需求爆發](https://i.imgur.com/e3ghlzGb.png)
33
[請益] AI用途,現在直接買顯示卡 ,還是等50目前AI繪圖用3060 12g撐著,但實在太慢了,VRAM也不夠 原本想等到2/20 5070TI,但看版上大大文章和新聞 可能到時候根本買不到,甚至性價比根本不高 還是要趁現在還沒偷加價,直接挑RTX4070tis 4070tis 4080s 5070ti VRAM都是16g24
Re: [新聞] AI晶片競爭開跑,谷歌公布第四代TPU,宣周末下班閒聊, 發現tech版沒有這篇文章, 那就在這裡討論好了, 其實我說的東西都是網路 google+wiki 就有的東西, 先簡單說明一下現代化的ML DeepLearning的基本概念,X
Re: [爆卦] 中央研究院詞庫小組大型語言模型對於LLM只有這一點認知程度的話,最好不要就這樣出來帶風向會比較好,不然先去 跟陽明交大校長先去旁邊先學習一下什麼叫做LLM,不同LLM之間又有什麼差異。 第一個錯誤的認知是認為LLM就應該要提供正確的答案,事實上LLM是一個機率模型, 它所做的事情是基於模型的權重預測下一個token(詞塊)最高的機率是那個,它不是資 料庫,所以你不能因為它答的一個答案不是你所想的就是說這個模型如何如何。![Re: [爆卦] 中央研究院詞庫小組大型語言模型 Re: [爆卦] 中央研究院詞庫小組大型語言模型](https://llama-chat-4fcmny015-replicate.vercel.app/opengraph-image.png?0806238e04f3e3af)
6
Re: [問卦] DeepSeek問世會讓顯卡降價嗎顯卡一定會漲價 目前己經有很多deepseek布署在本機電腦的教學 ollama上也有deepseek R1模型可以下載 deepseek R1模型各參數量對顯卡記憶體需求![Re: [問卦] DeepSeek問世會讓顯卡降價嗎 Re: [問卦] DeepSeek問世會讓顯卡降價嗎](https://i.imgur.com/blJhjZbb.png)
4
Re: [請益] 1660S x2 or 3070 組DL server最近版上出現一些深度學習配單,覺得有一些心得可以分享,省的走冤枉路 就來回一下舊文,我最後拿3070喇 先說結論,3060 cp值最高唯一推薦,再上去建議直接攻頂3090 大部分人買顯卡都很關心效能,所以我看到有些人會拿3070, 3060ti上來問 但是跑深度學習除了效能以外,VRAM大小以及資料讀取的IO時間都會影響training效率2
Re: [菜單] 120K LLM+SD 5090 AI生成機怎麼說呢,目前小資玩LLM訓練還是很困難啦 NV專業卡價格超級貴又難買,只能買消費級遊戲卡來擋 雖然有雲端服務商算力平台,但說真的 短租不如長租~~長租不如買斷(沒預算就什麼都沒法用) 而且平台不只租GPU,連VM都得一起建在上面才能用![Re: [菜單] 120K LLM+SD 5090 AI生成機 Re: [菜單] 120K LLM+SD 5090 AI生成機](https://www.gstatic.com/devrel-devsite/prod/v329b39deca73fc0f4b4862903640085cfb4d3102e48d211dd97ad63f3860a376/cloud/images/social-icon-google-cloud-1200-630.png)
Re: [問卦] DeepSeek對行業市場的衝擊很大吧!你太腿了= = 你會驚訝有人把R1放在手機上測試 就代表你跟這個行業完全不熟= = 對於開源也很不熟 兩年前就有llama2, GPT2各種大小的模型隨你下載 在手機上頭跑我們只考慮你的model size 你是llama DeepSeek 還是阿薩布魯8.7都沒差
![[問卦] 一堆人在搶5070Ti顯卡 [問卦] 一堆人在搶5070Ti顯卡](https://i.imgur.com/VQi51GMb.jpeg)