Re: [閒聊] 5070賣549鎂有4090的效能?
※ 引述《qweraakk ()》之銘言:
: 補個恰點
: 這樣我要用ps5pro還是pc玩黑悟空 囧
:
: ----
: Sent from BePTT
:
不要看看跑分就覺得5070能打4090
一個VRAM 12G、一個VRAM 24G
就連玩遊戲,12G能撐多久都不知道,總之現在要全開8G肯定不夠的
更別說接下來幾年是AI的年代,12G跟24G VRAM能跑的AI模型天壤之別
阿你一定會說現在AI輔助遊戲還看到、也不玩AI繪圖,那對玩家來說AI有差嗎?
有,如果你玩GAL GAME或要看生肉漫畫的話,
中國有人tune了本地跑的日翻中語言模型,用遊戲腳本跟輕小說訓練的,
這東西完整版要跑起來也要12G以上的VRAM
有興趣可以研究看看,現在都不需要漢化組了其實
SakuraLLM
https://github.com/SakuraLLM/SakuraLLM
總之這年頭VRAM很重要,
不否認50系列CP值還蠻高的,但你要說4090但雕就想多了
--
所以直上5090就對了
就看需求吧
反正買來還不都是玩遊戲的,玩AI的誰會買5070
所以我在談AI的遊戲應用, 包含本機的AI翻譯,跟現在已經有透過視覺模型幫你刷每日任務的AI了 然後現在的AI會越來越不純網,轉為部份需求在本地運算、需要超大模型在連網, 這個方法好處是可以大量減少token費用
有沒有漫畫可以自動翻譯的模型阿
怎麼買張顯卡 要考慮的多工越來越多
這跟ChatGPT有太大的不同嗎?
有,因為ChatGPT的訓練文本太多太雜而且以英文為主 SakuraLLM只做很單純的日翻中,而且是用ACG文本訓練的 同時,不用網路不用錢
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 11:58:43但都要買CP值的人了 會去跑多工嗎
打個遊戲還要訓練Ai?
我是覺得跑AI的人比例不高就是了
很多有工具需求的人是在用專門的服務
連網服務都要錢,而且越來越貴是個問題 過了AI推廣期就開始宰盤子了,現在專業板的ChatGPT 一個月是200鎂
說得好 就應該直上5090
跑AI不會買這吧
跑AI當然是直上5090 跑遊戲的70TI綽綽有餘了吧
沒差吧,這就是把遊戲玩家跟AI切開,老黃這刀很可以
再說一點,現在跑展會,包含微星、華碩都在推透過電腦本地做離線的AI輔助, 基本上手機場也是,不管是iPhone或是Samsung, 大部分的AI都是透過本機的小模型來處理瑣碎、細節、具備個人隱私的任務 如果未來PC走向AI輔助操作的發展,個人電腦跑AI的算力還是很重要, 都要換50了就不能不考慮這些
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:02:16單純跑遊戲5070還是可以啊,如果要跑AI為啥不一開始直
接上5090,更別說5080也只有給16G而已
20K是還要什麼東西啦= = 要VRAM就直上90
要AI請直上5090
一般人誰會跑這個
不就沒錢的人考慮CP值,不然誰不知道買頂規
所以我能直接完生肉 我的腦袋也有12G以上VRAM(
打遊戲的效能真的有接近4090的話 只打遊戲的鐵入這張.
戰未來又不看這張 直接衝5090去了
實際上這價錢確實沒必要考慮4090
你要5090才跑得動的AI遊戲, 根本賣不了啦
不是跑AI遊戲, 是跑AI進行一些輔助的遊戲操作,包含我前面提到的遊戲文本翻譯模型
https://i.imgur.com/i8Olh2O.png
7B大概就比過去的機翻好一點 語言模型也一直在縮小到可以讓家用電腦設備可以入門
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:05:13不講究畫質是不是買5070TI就好了
5090至少保價7年!
感覺再過一段時間也差不多該換老電腦了
要看未來有沒有很神的AI遊戲拉開差距
或者是AI輔助成為主流不被當成作弊
而且兩年前8G VRAM已經開始不夠遊戲使用了
https://www.ptt.cc/PC_Shopping/E.nfdITzemCfcs12G VRAM能撐幾年、現在換50系列目標是撐幾年還是要考慮
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:07:56還是老話 一個遊戲即時翻譯AI軟體 要求超越5070那就是開
那要看能不能繼續縮需求 不然使用門檻是80跟90的AI功能就
很難推廣了
發好玩的 穩穩爆死
阿用不到這種極少數人才能玩的翻譯軟體 那有差嗎
就變成高級玩具而已 離實用還有距離
都買CP值的5070了 還會在乎用不到那種極端軟體幹嘛
當然買70ti,光是記憶體就值了
5070 ti我覺得是比5070合理跟長久使用的選擇沒錯
會買5070的就是純遊戲玩家,用到AI輔助都不知道幾年後,
搞不好6070出了才用到
每一代都換顯卡的換換病不在本篇需要討論的範圍XD 現在換50也是希望能撐個五年起吧,我覺得5070不如就上5070 ti
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:10:13我會去玩一下 CUDA相關的運用 但我覺得大部分人不用想
只拿來跑遊戲,換到5070ti就是CP值頂了,再上去沒太大意義
好了啦 就是不敢講價格喔 只會在那邊AI遊戲VRAM
頻寬就鎖死了是在幻想什麼,皮衣刀客能賣你3萬的東西絕
這些有的沒的。在本地端用別人的repo做事的門檻滿高的
對不會賣2萬給你
不是, 這個價位的哪需要考慮撐幾年..
換一張兩萬的顯卡不會考慮撐幾年,認真?
5年起.... 忍者無敵 XD
549鎂三年後就能換7070了
鬧麻了 搞ai的乖乖拿最頂配的 拿cp值卡大談
講遊戲的話就是70只有12G 有些遊戲2K可能會不夠
一般來說就你有需求再去換卡 想著"這樣生產力較強"的結果
大多就是"想太多了"
AI仔是這樣的
如果真的不考慮要撐幾年、能不能開2k4k 大部分的人應該3060就夠了,不用買到萬元級的顯卡吧
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:13:165070應該不至於推不動2K吧?穩60FPS+高效能應該沒問題
gal就算沒熟肉我也會選啃生肉就是了
這張除了12G以外 cuda也砍得算兇
兩萬不就半隻iphone而已嗎, 用三年很夠本了
3-5年後才成熟好用的東西到時再換就好 現在買適合的很OK
現在pc遊戲有些就很吃vram 不好說
俗話說:未來可期 未來買 XD
5070推2K推不動大概是FPS開到超過144然後又死不降吧
會日文現省12G VRAM
你這種需求小眾到沒什麼人在乎吧
砍得部分影響多 但對gal玩家來說..不多
更別說gal玩家是少數
不是每個人都需要AI服務啦,很多人組電腦也就上上PTT和臉書
那不如3060吧XD
16G夠用嗎
3060哪夠 沒看魔物測試版的慘狀嗎 正式版不知道能修多
少
有一部份是面數bug,官方已經有說排除了啊
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:18:18沒事 等AI正大大規模成體系運用在遊戲上,那時可能已經
是70系列了
考慮CP值的 會跟你說學日文
這能翻色色嗎 chatgpt不給翻麻煩
可以,而且訓練文本印象中有成人遊戲跟小說, 能本地離線跑的AI模型=沒有倫理限制
我12G跑2K惡靈古堡4重製版會沒辦法畫質全開 爆顯存
現在吃VRAM到16G都還有點緊繃的遊戲,除了荒野外還有
嗎?
本地inference一個大模型沒必要吧
目前的語言模型大部分是強調通用性,像是SakuraLLM這種就是專門做ACG日翻中, 而且可以生成成人內容,雲端的模型大部分都有倫理限制
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:22:19還是要錢喔 4080不用錢?
就20k的等級 你要求要有30k 50k 70k的效能本來就多啦
荒野建議配備是 RTX4060 喔,而且這個還是在開幀生成的
情況下60fps
12g是現有新遊戲的門檻 真的不夠
荒野那是已知, 現在怕的是GTA6
如果 MHWs 正式版沒有更好的優化 要無腦60fps大概要至少
魔王獵人荒野2k就吃7G多了,8G真的不夠
RTX 470
RTX 4070*
不過再怎樣也不可能搞到要5080 5090才能順跑, 不然怎
麼賣
當初為了4K遊戲的買3080路過,如果5070沒買就是等6系列
vram大的你根本搶不到,不然也是芭樂價
切這一刀至少一般玩家還有機會能入手
@yoyun10121 這倒是真的
一般人真的不會去煩惱AI模型這種東西啦
那還是得面對這年頭VRAM 12G已經會碰到3A遊戲開2K 4K的上限了 老黃敢這樣賣不要把他當白痴XD
放上Collab之類的地方做推論不可行嗎
Colab限制越來越多了,去年開始Google就不太讓一般人白嫖算AI
專業!
遊戲廠商會配合主流硬體啦
SakuraLLM我3080跑q6k效果跟即時性都蠻好的,讚歎時
代進步
只是真的強烈建議VRAM 12G不太夠了, 要換就是5070 ti 的16G
真的是...你真的自己train過AI model嗎 12G很夠
我用3090,跑人聲訓練24G都在燒 12G的話文字7B可以,超過也不夠吧
更別說你自己不train 只要inference 根本不用多少vram
"一般人" 看到套裝機上面寫個"電競"就掏錢買了
24G不夠你有考慮過你batch size是設了什麼嗎
你的世界是只有3060和5090嗎
我覺得5070ti 16G VRAM很棒啊
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:32:42現在potplay也能語音字幕+ai翻譯真的屌
買90只是玩ai,跑ai都上100了
Inference沒那麼吃資源
我是建議內文換個例子啦 畢竟gal本來就小眾
gal常玩的人 看一般常見用語不太需要翻(只是差在啃
原文還是要用心一點,會比較累),但真的搞的那幾間
…那種東西也不是一般訓練得出來的,一堆自創詞還是
有的沒有的設定用語 換個遊戲就又不同套設定
就有人已經訓練完了啊,Google 搜尋SakuraLLM很多範例, 尤其在成人漫畫跟遊戲,這邊就不方便貼了
玩遊戲想撐兩代才換卡就至少70ti 16g啦 不然MHWs需求就
要12g了 除非未來大作都當沒看到或關這關那的 太不方便
用個箭頭就好了 OCR翻沒這麼吃資源
https://i.imgur.com/i8Olh2O.png
8G還夠吧 連荒野都能跑了
你說你要自己產AI色圖吃資源我還能當作你在說真話
5070ti要多7000,蛋蛋都捏破了
我現在最常用的是whisper日文轉中文,也是需要大量的顯存
Whisper用Large模型蠻厲害的,我之前試著讓他做迷片字幕過,模型尺寸有差
不跑AI行8行
3060魔物哪有慘 是3060ti ram不夠才有問題
3060VRAM有8G版跟12G版,說到底有一部份還是VRAM的問題
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:41:31長久使用是多長 不就到下一代60xx推出而已
愛sakura 好用愛用 AI翻使我生活豐滿
現在的AI已經可以做到local端的全自動翻譯了,準確率至少
有個85%,很方便,whisper語言轉文字+LLM翻譯
會再出Vram 加強版啦
你是不是有買4090?
嘿嘿,我的是便宜撿的3090,24G VRAM爽用
sakura翻小說是確實算滿強,但也真的不是大眾需求,有
需要的自己會上 70ti 以上的卡,對於沒必要且經費有限
的人來說,70 還是可以選擇的。另外,買張卡本來就不需
要猶豫太久,會猶豫代表你還不需要,繼續捏。
4070s用Luna掛Sakura在遊戲裡即時翻譯大概有0.5-1秒的延遲
,如果用4090等級的能做到幾乎0延遲嗎?
你是不是買4090被坑爛才在酸
我只是建議要上5070不如多花一點上70ti,差那4G VRAM真的會差很多
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:54:51SakuraLLM我10g也能加減跑 當然你會說完整版要更多vram
但我之前租H100比較過覺得其實差異沒那麼大 有時甚至比較
差 當然vram是越大越好啦 不然不夠的時候會哭
一般沒有換換病玩家升級都三五年,對應老黃就隔代升級
,買5070ti比較還能應對未來三到五年遊戲的成長
我是買了A卡才發現Sakurara 只能加減用XDD
4090一般人根本不需要 5070爽買
長久使用 = 0
我跑CNN模型用12G也能跑 我同學甚至不用4090也能跑
transformer 拿AI嚇普通人真的不必要==
而且吃多少VRAM這個也可以靠超參數調整
與其說嚇普通人,不如說提醒一下5070沒有上打4090那麼厲害 但很多人可能沒注意到12G VRAM在去年開始就會碰到很多使用情境的門檻, 還是一句話,要換建議換16G的5070ti
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 13:06:25用參數多一點的SakuraLLM會比得上Claude3.5sonnet嗎?
我試過一些補丁是覺得C3.5S比較好耶
一張遊戲卡還要想這麼多賣點說服玩家掏錢是不是哪裡怪怪的
,一張60爽玩中等畫質3A遊戲的年代已經484回不去了。
西洽人均N87(
我可以理解推16g 但你的使用範例本來就是 特殊 需求了
更何況現在steam大宗還是1080p的年代
大宗1080P根本不用升級啊XDD
兩萬塊還要想用5年嗎,現在早就不是一卡可以撐5年的時
代了
所以看起來我不用未來AI那些的話,5070能打4090了
簡單來說不管怎樣都是吊打我現在用的970...
(′・ω・‵) 都比我的內顯強
這次就是把遊戲卡和AI卡切開啊,老黃80、90的定價和
規格是要把跑去MAC 跑陣列計算的拉回來
M4Pro加到48GB RAM只加14000,M4 mini出來之後整個Ma
c mini cluster這兩個月大爆發
要1070用40就跑的到了不用升
12g以後會越來越不夠跑是真的
載別人train好的做inference根本用不了多少vram
正常人不會自己train
要train用2×a100都比較好 96GB vram
大小真的很重要
等應用出來再說啦 都還用不到誰會買張大vram起來放
要跑ai的 還不會看顯卡vram 那還真是笑死
想太遠了 真的普及時 這麼看重AI的 早換卡了
本機翻譯的商業或免費軟體可能靠顯卡會發展較完善吧
等5060
爆
Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售你劃錯重點, 先不論這篇論文的可行性與實用性, 你真的劃錯重點了 算力重要嗎? 重要但是不是影響販售/採購晶片的主因,爆
[情報] 蟹煮榮恩5060Ti/70Ti上16G 70Ti@285W/350W老黃從以前主流顯卡VRAM就是給得很死豬規格 死都不提升 4060 Ti革命性地在一張卡上推出兩種VRAM 一個是太小一個是太大(對於主流玩家來說) 就是死不給你剛剛好爆
Re: [情報] 情報數則給太長直接End的: 沒人會用4090 train正經的模型 請愛用A100 -------------以下正文--------------- 註:DL是Deep Learning79
[問卦] 太扯了5070只要549鎂 等效4090!!!老黃是AI賺太多 良心發現了嗎? 5070只要549鎂 運用老黃獨家的AI技術 能夠達到4090的效能水準 真的要把AMD打死了嗎?76
[閒聊] Vram 8g不夠用了?今年不少大作普遍 有卡頓 閃退等等災情 就實測看起來主因應該是主流8g 的vram不夠造成, 例如主流的3060ti 3070 3070ti 性能是足以順跑這些大作,32
[情報] 一改再改 3080Ti最新爆料:4月發表 12GD6X之前有很多消息指稱3080 Ti為20G VRAM且砍頻寬到320bit 也有消息指稱同樣384bit但是VRAM為12G 現在看來後者的可信度更高了 根據推特爆料者 @kopite7kimi (該爆料者在GA100/GA102發表前幾個月曝光了規格)15
Re: [討論] 群聯買不起三台nvdia dgx?我也看了這個訪談 所以故事應該是.. 幾個工程師想在公司弄LLM fine tune去跟老闆要三台DGX 老闆一看跟公司業務八竿子打不著拒絕了 工程師拿自家SSD變成4090的VRAM自幹LLM12
Re: [閒聊] 大眾對AI圖的接受度是不是變高了剛剛開著忘了關不小心跑了一堆就上傳一下好了 看看普通人隨便畫的跟上面那篇精修的差距大概這麼大10
[情報] 把3060 8G魔改回12G 跑分效能提升22%最近魔改正夯 Paulo Gomes以及harteck團隊發表了最新一期的魔改 且算是前有未見 我們都知道3060 12G推出之際老黃還算是有點良心 至少給你192bit跟12G VRAM 後來就是要薛盤子 推出了3060 8G 僅更改了VRAM大小以及匯流排位元 今天這期的魔改就是要把被薛一刀的3060 8G改回原始版3060 12G1
[問題] 最後生還者1 STEAM版本一直不能玩我都加記憶體到32G了 顯卡 3060 12G CPU R7 pro 4750 結果一直跳訊息說 RAM跟VRAM不夠 可是視窗不理他遊戲還是在跑
爆
[閒聊] 米池0+0真的沒體驗嗎?爆
[閒聊] 馬斯克的poe2.. 明顯有受到"幫助"爆
[閒聊] 真三國無雙最失敗的角色是?爆
[母雞] 小祥的孝心能跟做的雞八事功過相抵嗎?91
[閒聊] 真三國無雙最成功的角色?爆
[閒聊] 說真的,反串文化是不是挺危險的75
[閒聊] 絕對宇宙單位76
[閒聊] Creepy Nuts 大港開唱出演85
[閒聊] 大到靠北!宏碁發布11吋遊戲掌機58
[妮姬] 70天 200等 新手微心得57
[問題] 你喜歡手遊的哪種突破提升方式?55
[Vtub] Evil想買鎢立方體 看到價錢嚇到龜叫的Vedal54
[討論] 2024 前十女性實況主51
Re: [閒聊] 米池0+0真的沒體驗嗎?45
[閒聊] 米池 平舖成本,有可能比2+1精養高?43
[MyGO] 燈的社交力其實不弱吧43
[問題] 如何正確姿勢區分偽娘和扶他39
Re: [閒聊] 米池0+0真的沒體驗嗎?40
[閒聊] 絕區零沒救了吧41
[閒聊] AZKi : holomen的攻略計劃做好了36
Re: [閒聊] 真三國無雙最失敗的角色是?35
[閒聊] 你們中午會跟同事吃飯飯嗎35
[萬代] R魂 機戰傭兵 戰友拉斯提32
[MLTD] 今天是エミリー的生日32
[閒聊] 巴哈姆特動畫瘋新授權情報30
Re: [NS2]CES展Genki直接展示NS2手把29
[閒聊] 當你發現喜歡的動畫是泡麵番會追完嗎27
Re: [母雞] 小祥的孝心能跟做的雞八事功過相抵嗎?33
[NS2]CES展Genki直接展示NS2手把28
[閒聊] 雷蛇 全球首款電競冷熱椅