PTT推薦

[情報] AMD正在開發NVIDIA DLSS的跨平台替代方案

看板PC_Shopping標題[情報] AMD正在開發NVIDIA DLSS的跨平台替代方案作者
oppoR20
(R20)
時間推噓25 推:25 噓:0 →:102

據報導AMD正在開發NVIDIA DLSS的替代方案,並且將會是開放和跨平台

https://bit.ly/320Srjs
--
AMD當前正在測試一項新的深度學習超高取樣功能,該功能旨在提高光線追蹤的性能。

https://i.imgur.com/Ez5POTV.png

圖 AMD正在開發NVIDIA DLSS的跨平台替代方案

根據The Verge的說法,此功能是NVIDIA DLSS功能的替代產品,並且將是開放和跨平台的,因此可能會推出到由AMD提供技術的PlayStation 5和Xbox SeriesX上。但是此功能可能還有很長的路要走,因為它無法針對目前發布Radeon RX 6000的卡來做使用,而該卡將在未來幾週內發布。

此前NVIDIA在三月份發布了DLSS 2.0。該功能由RTX系列GPU的Tensor核心提供支援,是一種AI驅動的影像重建技術,可在不影響性能的情況下顯著改善視覺效果。包括Death
Stranding和Ghostrunner在內的幾個最新遊戲都使用DLSS 2.0提供了前所未有的視覺品質。

儘管AMD承諾將在4K遊戲及更多領域與NVIDIA並駕齊驅,但這場戰役最大的遺憾之一就是缺少與NVIDIA的DLSS相當的產品。NVIDIA的AI驅動的深度學習超高取樣技術已經為支援該技術的遊戲帶來了革命性的變化,只需切換遊戲設置即可帶來出色的影像品質和更高的
FPS。

AMD Radeon RX 6800 XT和RX 6800卡將於11月18日發布,而Radeon RX 6900 XT與NVIDIAGeForce RTX 3090相對應,將於12月8日發布。
--
蘇媽大噴發 阿姨我不想努力了
這樣以後老黃的對手會越來越精明 好精彩 讓我們繼續看下去

--
https://i.imgur.com/ti8LmSx.jpg https://i.imgur.com/3V8MFbS.png

圖 AMD正在開發NVIDIA DLSS的跨平台替代方案
圖 AMD正在開發NVIDIA DLSS的跨平台替代方案
https://i.imgur.com/TKKm9DO.jpg https://i.imgur.com/qqcwtj6.jpg
圖 AMD正在開發NVIDIA DLSS的跨平台替代方案
圖 AMD正在開發NVIDIA DLSS的跨平台替代方案
https://i.imgur.com/s2M8J3L.jpg https://i.imgur.com/P9blBWv.jpg
圖 AMD正在開發NVIDIA DLSS的跨平台替代方案
圖 AMD正在開發NVIDIA DLSS的跨平台替代方案
https://i.imgur.com/Ajd4i3P.jpg https://i.imgur.com/8PZvlO5.jpg
圖 AMD正在開發NVIDIA DLSS的跨平台替代方案
圖 AMD正在開發NVIDIA DLSS的跨平台替代方案
https://i.imgur.com/8sBrIQv.png https://i.imgur.com/31PKjTu.jpg
圖 AMD正在開發NVIDIA DLSS的跨平台替代方案
圖 AMD正在開發NVIDIA DLSS的跨平台替代方案

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.125.222.156 (臺灣)

※ 文章網址:
https://www.ptt.cc/PC_Shopping/M.1604201835.A.B91

kashima228 11/01 11:42https://i.imgur.com/jvBY2JZ.jpg

圖 AMD正在開發NVIDIA DLSS的跨平台替代方案

kuma660224 11/01 11:43它有家機+PC,甚至未來手持SOC客戶

kuma660224 11/01 11:44當研發分母

leviathan41511/01 11:48驅動值5000?

FXW11314 11/01 11:51AMD上一個喊開放的ROCm到現在還是涼涼的

henry46277 11/01 11:58基本上應該是要等2021才出來了吧

kk4789 11/01 12:02現在才正在開發已經晚了

arrenwu 11/01 12:06如果是PS5和XSX能用的話 現在做也不晚吧

arrenwu 11/01 12:06如果這是用Deep Network的作的 看起來不用太久?

kashima228 11/01 12:09人家是正在開發 不是準備開發好啦

ronald279 11/01 12:17AMD YES

leo255112 11/01 12:30Lisa Su 會不會是史上最傳奇的AMD CEO啊,太神了

leo255112 11/01 12:30

darkdixen 11/01 12:41AMD大量招募軟體工程師很久啦

Fezico 11/01 12:42蘇媽這個弄出來超划算,家機市場基本上就被紅軍綁死

windjammer 11/01 13:00AMD也要有獨立硬體做這塊阿 不然FPS照樣掉

ksng1092 11/01 13:08DLSS替代方案...用來提高光追性能?

nicholassys 11/01 13:12考慮到dlss很難選amd

Luciferspear11/01 13:12好消息

kuma660224 11/01 13:15這要看用什麼觀點 專用硬體佔電晶體

kuma660224 11/01 13:15AMD應該傾向優化AI用指令在既有CU

kuma660224 11/01 13:16透過DirectML去實作AI介入的upscale

kuma660224 11/01 13:16這樣能沿用既有運算資源

kuma660224 11/01 13:17不會有軟體不支援 專用硬體就浪費的問題

kuma660224 11/01 13:18不做專用硬體 同面積可塞更多泛用ALU

kuma660224 11/01 13:18兩種路線都有利有弊

windjammer 11/01 13:19有道理 如果能共用的話效率是最好的

kuma660224 11/01 13:19AI部分弱的 可從其他部分加強追回來

kuma660224 11/01 13:20最後還是看整體方案配套的大水庫效益

kuma660224 11/01 13:20現代GPU搞成大量泛用運算 其實就是

kuma660224 11/01 13:21因為以前繪圖晶片太多種專用線路

kuma660224 11/01 13:21很多功能只有某些軟體在某些工作才用到

kuma660224 11/01 13:21大部分時後閒置,浪費空間成本

kuma660224 11/01 13:22所以趨勢仍是加強泛用化

kuma660224 11/01 13:23但某些工作短期還無法靠泛用指令幹掉時

kuma660224 11/01 13:23才塞沒啥彈性的專用硬體暫時解決

kuma660224 11/01 13:26用泛用單位塞加速指令會較能下放低階

Castle88654 11/01 13:26會限定套裝加乘嗎

AKSN74 11/01 13:39同意kuma大觀點,其實更近的例子看RT就知道了

AKSN74 11/01 13:40讓各家都開始能夠支援RT也是DX12U推出後才得到響應

AKSN74 11/01 13:41在更早之前,NV買下PhysX原本也是為了在遊戲物理運

AKSN74 11/01 13:41算能夠得到強化,但最終還是玩不過Havok等直接用傳

AKSN74 11/01 13:41統運算去處理

AKSN74 11/01 13:43通用化才比較能讓廠商願意廣泛採用

robocon 11/01 14:33下ㄧ世代主機應該會開始帶動光追全面普及化吧,最

robocon 11/01 14:33後再反饋回桌面晶片跟軟體開發

a2935373 11/01 14:37這一代會慢慢開始吧 如果有半代主機可能就會更多?

cocowing 11/01 15:12RX6000無法使用,這樣還期待架構一樣的家機幹嘛

cocowing 11/01 15:13DLSS用來玩控制,FPS提升真的誇張,畫質和原生4K看不

cocowing 11/01 15:13出什麼差異

cocowing 11/01 15:14如果沒DLSS,我也不知道AMD要怎麼彌補這40%的FPS差距

SaltyFish10211/01 15:17A卡戰未來

splong 11/01 15:33翻譯問題 原文是6000系列發售的時候新技術還不會好

splong 11/01 15:33不過XF連這種國中生英文都會翻錯也不易外

我自己讀的時候我有看懂是這個意思 只是很不通順XD 然後這篇應該是抄驅動之家的 一樣爛

splong 11/01 15:35https://tinyurl.com/yycqcnl9 倒數第二段最後

killerking0511/01 15:36蘇媽作家機也該有足夠經驗回饋了,期待競爭

jior 11/01 15:50不知道何時才能實裝

a2935373 11/01 16:20家機來說的話 搞不好塞顆upscaling的晶片更便宜

※ 編輯: oppoR20 (42.77.227.191 臺灣), 11/01/2020 17:54:43

AKSN74 11/01 17:56家機一定會很希望有這功能,甚至協助開發

AKSN74 11/01 17:56他們不這樣做久了玩家會倒戈

henry46277 11/01 18:5483870721?s=20

henry46277 11/01 18:55抱歉 請原 PO幫我刪一下樓上的連結

henry46277 11/01 18:57https://is.gd/pN2j5N

henry46277 11/01 18:57這是 AMD 市場經理(應該是)的回覆 說是會在11/18前

henry46277 11/01 18:57公開更多 光追和 超分辨率(AMD版 DLSS)的更多細節

henry46277 11/01 18:57請拭目以待

jior 11/01 19:25不是,他就是那個外星人電腦的創辦人之一,現在也

jior 11/01 19:25是AMD的GPU架構首席

jior 11/01 19:26希望超採樣能快點實作

kuma660224 11/01 20:05微軟已經拿RT行銷它新主機特性了

kuma660224 11/01 20:05所以不用懷疑 這代應該可以普及

kuma660224 11/01 20:06只是怕PS5的光追不夠強

kt333 11/01 21:01DLSS2.0基本上就是TAA反鋸齒的加強版,而且透過AI

kt333 11/01 21:01重建圖像不僅消除TAA的嚴重模糊狀況跟動態閃爍問題

kt333 11/01 21:02FPS提升也很大,如果AMD拿不出類似的東西根本不能跟

kt333 11/01 21:02老黃打

prag222 11/01 21:06用mClassic 關反鋸齒 效果都差不多吧

prag222 11/01 21:07還有畫質加強顏色對比功能 我玩QUAKE4搭MSI螢幕

prag222 11/01 21:07那顏色色質感真的不錯

prag222 11/01 21:09我有mCable搭amd顯卡根本沒差

kt333 11/01 21:34mClassic這個透過升頻,降低鋸齒跟銳化顏色跟DLSS

kt333 11/01 21:34是不一樣的東西,在低解析度很有效再2K跟4K畫面

kt333 11/01 21:34根本是安慰劑沒什麼用,況且你FPS根本不會提升

friedpig 11/01 21:49嗯 不是喔 dlss目前的確是做差不多的事情 只是AI

friedpig 11/01 21:49的升法會有憑空變出來的資訊 跟固定算法的up scale

friedpig 11/01 21:49不太一樣 不過憑空多的東西未必是好的就是了

AKSN74 11/01 21:55能不能跟老黃打是一回事,開發商願不願意支援只有

AKSN74 11/01 21:55N卡上面才能跑的技術則是另一回事了

kt333 11/01 22:31mClassic只是單存升頻而已,就像是你模擬器那樣

kt333 11/01 22:31提高解析度降低反鋸齒,DLSS細節差很多不只升頻

kt333 11/01 22:31那們簡單而已,AI重建確實會多補一些奇怪的東西

kt333 11/01 22:32但效果而言大家都是滿意的包掛我自己,用過自然

kt333 11/01 22:32就懂為什麼要吹DLSS2.0,至於支援度我是不擔心

kt333 11/01 22:32聽說3.0是可以直接套用在TAA上面,因為TAA太多

kt333 11/01 22:32廠商在用了

friedpig 11/01 22:332.0已經是無針對性的model了 對開發商而言已經沒啥

friedpig 11/01 22:33成本了 以前的還要特地給NV慢慢Train

AKSN74 11/01 22:48那這樣的話AMD確實是要緊張一點了,不過比起AMD可能

AKSN74 11/01 22:48家機在這方面可能更緊張wwww

AKSN74 11/01 22:50我自己實測過後也是有發現3090真要像NV發表上說可上

AKSN74 11/01 22:508K也是要非常依賴DLSS

henry46277 11/02 00:32沒有3.0 只有2.1

corelar 11/02 09:09繼續騙

kuma660224 11/02 09:59DLSS2不對遊戲trainning,因為原理

kuma660224 11/02 09:59更像TXAA等後製了

kuma660224 11/02 10:01DLSS2的前身 甚至沒用TensorCore

kuma660224 11/02 10:01新原理是基於時序資料重建 屬於後製

kuma660224 11/02 10:02用前幾個frame資料 加入推算

kuma660224 11/02 10:02所以也無法做什麼訓練

kuma660224 11/02 10:02後來正式推廣版加入TensorCore協助

kuma660224 11/02 10:07DLSS1才是更傳統AI,用圖片訓練演算法

kuma660224 11/02 10:07試著修復失去的細節

kuma660224 11/02 10:08DLSS2算是半放棄那低能方式

kuma660224 11/02 10:09直接跟引擎要前幾影格的動態向量圖

kuma660224 11/02 10:09用多影格的舊資訊重建得到新影格資料

kuma660224 11/02 10:10不是像DLSS1用AI想要無中生有

kuma660224 11/02 10:11DLSS2的資料是前幾frame實際存在的

kuma660224 11/02 10:11用算法去找出來 補到當前frame

kuma660224 11/02 10:13其實你把upscale算法加上時序等資料

kuma660224 11/02 10:14結果及原理就87%像

kuma660224 11/02 10:14堅持叫DLSS也算是一種行銷

kuma660224 11/02 10:15這蠻有可能不用TensorCore也能實作

kuma660224 11/02 10:16弄翻倍的FP16甚或某種專用指令

kuma660224 11/02 10:16效率大概也差不多

kuma660224 11/02 10:17它大部分提速不是來自於用TensorC

kuma660224 11/02 10:17而是來自繪圖解析度降低到25-50%的結果