[心得] 今年Comoutex主軸GB200
情報來源: 自己隨手拍
https://i.imgur.com/6eSKArg.jpeg
狠掃股市、夜市旋風的辣個男人,皮衣刀客流量在線!
https://i.imgur.com/9fl4lke.jpeg
https://i.imgur.com/cyYAXyk.jpeg
NVIDIA GB200 NVL72規格表
規格 NVIDIA GB200 NVL72
組態 36x GB200 Superchip
FP4 Tensor Core稠密/稀疏運算效能 720 / 1440 PFLOPS
FP8/FP6 Tensor Core稠密/稀疏運算效能 360 / 720 PFLOPS
INT8 Tensor Core稠密/稀疏運算效能 360 / 720 PFLOPS
HBM記憶體架構 HBM3e
HBM記憶體容量 最大13.5 TB
HBM記憶體頻寬 最高576 TB/s
處理器組態 2592x Arm Neoverse V2核心
高速記憶體容量 最大30 TB
NVLink交換器 7x
NVLink頻寬(雙向) 130 TB/s
*以上資料來自GOOGLE查詢,有誤歡迎糾正
https://i.imgur.com/wuRGxuG.jpeg
老黃親簽!!
這次comoutex的人潮和車流量有很明顯的提升,光世貿停個車就等了1個多小時,尤其這次又有老黃、蘇媽、季辛格等重量級人物加持讓這次電腦展的聲量直接拉滿! 真心建議
要去參觀的人坐捷運會比較合適。
--
/a/
還好我都坐我爸的車過去 前天才給他載去
聽演講
聽他演講
/a
/a/
1000p已發
感謝板主!
聽內湖下班的人抱怨人潮也把捷運擠得
更難受
內湖那邊本來就會塞了 沒救
真的別開車 停車又貴
兄弟你圖全死
多謝提醒 改好
4202了 別再/a/
中華到 level3 的網頻寬不足
依照這次Arm發表的X925的ipc提升幅度
Neoverse V3應該是頗強
不過Adonis更值得期待,大概要2026才
有相關產品
第一張好扯 是在追星逆==
47
[閒聊] M2Ultra在AI比intel+nVIDIA有架構優勢?先說我不懂AI運算 只是看了林亦的新影片 不想點的,說個大概 意思是12
[情報] NVIDIA發佈Grace CPU:144核心+500WNVIDIA發佈Grace CPU處理器:144核心+500W 除了萬眾矚目的Hopper架構H100加速卡,NVIDIA在GTC 2022大會上還發布了專為AI及超級電 腦設計的CPU處理器Grace,擁有多達144個內核,記憶體頻寬高達1TB/s,整體功耗僅為500W ,官方表示性能上根本沒有對手。10
[閒聊] NVIDIA Tesla A100 20倍快的AI 今晚主菜VideoCardz VideoCardz 在今天拿到了一張 Tesla A100 的 SMX 模組圖片 包含一張 GA100 (安培) GPU 跟六個 HBM2(e)9
Re: [新聞] 韓媒:台積電、SK海力士將組AI晶片同盟現在還來得及 快上HBM的車 且HBM利潤很高 此篇底下有人分享哪家卷商可以買韓股 QQ 主要是高速頻寬記憶體是現在AI架構裡面很重要的一塊 自從多模塊大模型開始後7
[情報] GTC 2022 : NVIDIA Grace CPU 再揭更多消息NVIDIA 在先前宣布首款基於 Arm Neoverse 架構的自主研發超算等級 CPU 產品 Grace ,此次 GTC 大會也公布 Grace CPU 即將在 2023 年第一季推出 的消息,同時還公布屆時 Grace CPU 的兩種小晶片架構延伸產品 Grace CPU Superchip 與 Grace Hopper Superchip 。5
[問卦] 有GB200可以約到妹子嗎?欸 老黃的投影片那個晶片好像很強 看一下NV官網裝在GB200主機裡面 說家裡有GB200主機 484很容易約到妹子到家裡看Netflix?4
[情報] Ampere 架構的NVIDIA A100晶片4.0 AIC版NVIDIA在5月中旬推出了A100晶片,這是第一款採用Ampere架構的GPU加速器 此處使用的GA100-GPU擁有826mm2 和540億個電晶體管。 到目前為止,A100加速器僅以SXM4模組的形式提供。NVIDIA今天宣布它希望透過用A100 PCIe卡的形式出售GA100 GPU 在PCI Express卡上以相同的配置使用相同的GA100 GPU。我們現在正在談論的是6,912個- HBM就是金礦 尤其現在部分研究有走向拉長Input Sequence和Embedding Vector Length 我好幾次train模型 記憶體都不夠用 還得搞gradient accumulation這種手法 在Multimodal開啟後 資料數據都是幾10T的Train 記憶體很容易被操爆 且部分研究顯示 多模態數據拉到60T以上後 胡言亂語症狀都會減低 然後HBM3e領先就是海力士 海力士不可能只有20% HBM現在就三大玩家 而韓廠就吃掉90%
X
[情報] NVIDIA RTX 2000 Ada Generation GPUNVIDIA RTX 2000 Ada Generation 採用 NVIDIA Ada Lovelace 架構 2816 NVIDIA CUDA 核心 88 NVIDIA Tensor 核心 22 NVIDIA RT 核心