PTT推薦

[情報] 1.8萬核心核彈!NV第1款5nm H100真身首曝

看板PC_Shopping標題[情報] 1.8萬核心核彈!NV第1款5nm H100真身首曝作者
ultra120
(原廠打手 !!!)
時間推噓11 推:12 噓:1 →:17

今天晚上,NVIDIA GTC 2022春季開發者大會就將召開,黃仁勳也將發表主題演講
幾乎肯定會發布基於Hopper架構的新一代高性能計算GPU和相關產品。

就在最後時刻,H100加速計算卡的渲染圖曝光了:
SXM樣式,整體異常緊湊,整個電路板幾乎滿滿的都是各種元器件,中間自然就是GH100核心。

從渲染圖上可以清晰地看到8組GPC(圖形處理集群),事實上如果放大慢慢數,可以確認
144組SM
也就是對應18432個CUDA核心,相比於Ampere架構大核心GA100 6912個多出足足1.67倍。

當然,按慣例應該不會開啟所有核心,勢必要遮罩一部分以確保良品率。

而根據昨日消息,8組GPC中只有一組開啟3D圖形引擎,畢竟這是計算卡。

這也是NVIDIA第一個5nm工藝的GPU,仍然堅持單晶片設計,預計核心面積900平方毫米左右
功耗可能達到500W,另外預計還有雙芯封裝的GH202。本次大會上
NVIDIA應該還會推出基於Hopper GH100核心的工作站、個人超級計算機等相關產品
甚至可能會公佈PCIe介面樣式的H100計算卡。

來源
https://news.mydrivers.com/1/821/821665.htm
XF編譯
https://www.xfastest.com/thread-260262-1-1.html

先發表專業架構 老黃帥氣皮衣登場

老黃年事已高白髮蒼蒼 歲月催人老

--
http://i.imgur.com/JS7qgbp.png

圖https://i.imgur.com/JS7qgbp.png?e=1667514450&s=6NiNfwmVwRiV2zRVzVW2Hw, 1.8萬核心核彈!NV第1款5nm H100真身首曝
RX VEGA 哪裡有16G VRAM 啪啪啪

https://www.ptt.cc/PC_Shopping/E.am_WNQbWT2q8
說好的RXvega有16g的vram完全碾壓1080ti的11g


--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.163.176.121 (臺灣)
PTT 網址

smallreader 03/22 22:42鞭屍www

kqalea 03/22 23:31現在正在講H100

JuiFu617 03/22 23:33500w都可以烤肉了

SAMMY728 03/23 00:034奈米. 謝謝

kqalea 03/23 00:47H是700瓦 2G才是500W

F04E 03/23 09:09工你媽藝

Alwen 03/23 09:27標題錯惹 是4奈米

aegis43210 03/23 17:02老黃的運算卡能不能達成他自己說的A

aegis43210 03/23 17:02I算力每12個月增加一倍呢?

kqalea 03/23 17:24超過了吧~尤其是transformer ASIC

kqalea 03/23 17:25靠著in-network/ in-memory

kqalea 03/23 17:26未來上去的空間還有~大概還有三個

aegis43210 03/23 17:26不過GPGPU可以算多種模型,ASIC只能

aegis43210 03/23 17:26算特定的

kqalea 03/23 17:27世代的空間,12月一倍的評估可能

kqalea 03/23 17:27遠遠低估了,反而是intel 1000x

kqalea 03/23 17:28比較接近現實

aegis43210 03/23 17:32i皇是希望靠architecture來達成1000

aegis43210 03/23 17:32x的目標,包括架構改良和3D封裝

aegis43210 03/23 18:13Coarse Grained Reconfigurable Arr

aegis43210 03/23 18:13ay和in-memory晶片,不知何時能合在

aegis43210 03/23 18:13一起做Heterogeneous Integration

kqalea 03/23 22:111000x其實沒啥,20年前教科書就說

kqalea 03/23 22:11DRAM 慢 cache 1000x

kqalea 03/23 22:12現在基本上就是把瓶頸變成瓶身

kqalea 03/23 22:15讓平行化程度更高,overhead更小

kqalea 03/23 22:16ML隨便一個model都幾億個參數

kqalea 03/23 22:17幾百層在跑,這種可高度平行化的

kqalea 03/23 22:17東西,加速個一百萬倍都不用驚訝

aegis43210 03/24 18:22依照老黃定律,2030就1000X了