[請益] CXL和NVLink
偶然看到這篇報導,
Intel/AMD陣營要用CXL和Nvidia的NVLink分庭抗禮,
頻寬印象應該是 Nvlink > cxl
感覺nvlink算私規, cxl算公規,
目前在AI應用上感覺Nvidia似乎走得比較前面,
但我在這方面算門外漢,
不知道有沒有人可以分析一下這兩個spec.的產業發展潛力和前景?謝謝
--
有量就有護城河 就是那麼簡單!
Spec不重要 就是六大派圍攻輝達頂
但目前兩種switch 不知道客戶買單程度是不是nvidia
贏?但看Broadcom 股價也因為cxl switch而高漲…..
壓縮方式相同, 帶寬差距主要是pin number以及頻率.
NV有專利護城河,且只有自家在使用. 其它人想要hig
h speed+coherence目前傾向走CXL. 做得好我認為也
不會輸NVLink.
1. CXL是PCIe,速度明顯輸以太,更不用提NV 2. AVG
O股價跟CXL沒有任何一點關係
樓上,輸以太?怎麼比的
pcie 6.0 vs 112G serdes
PCIe 6.0: up to 256 GB/s via x16. Ethernet要看下
速率是大B小b
我是參考Dylan Patel 近期關於CXL的文章 免費的部分
再請樓上大大指教
pcie6.0不是單lane 64GT/s嗎 x16是128GB吧?
Bi-direction應該乘2?
勿忘 HSA
話說公規是誰定義?
沒有在算雙向的...兩個方向目的就不一樣..有聽過SS
D spec讀4000MB/s寫1000MB/s的在說自己是5000MB/s
嗎
這樣我PCIe gen5幹嘛還講32GT/s 說64GT/s不是聽起
來兩倍厲害? x1哪次接Tx不接Rx了?
嗯嗯,類似DDR在同一個方向(TX或RX)DQS rising和fa
lling edge都有做事才能算x2
pcie6.0是PAM...
HSA已經死到不能再死了
這多少年前亂寫的東西 拜託一下
cxl主要應用場域在server加memory
nvlink跟這八竿子打不著
一個是cc cg一個是 cm/cs要混在一起談是那招XD
你拿 ucie還差不多
那這篇今年的文章也是亂寫的囉?我是門外漢沒錯,
請樓上兩位專家解說….XD
我記得NVLink主要是用在GPU跟GPU之間吧? CXL好像是
CPU跟其他外設 兩者使用沒啥關係吧?
我看完文章理解是AI應用上兩種都可以使用,但如果以
計算時data傳輸需求頻寬來看,會選擇可以提供較大頻
寬的NVLink平台
所以會導致cxl 的量起不來….還是說其實cxl有自己
的其他應用端可以使得上力,而且價格成本和頻寬需求
也更符合那些應用,所以兩者不會有衝突?
不知道有沒有這方面有研究的板友可以說說看?謝謝
現在就高速乙太網路力拼 下一代可到800Gbps
是說台灣的幾家網路晶片不研發看看嗎 都沒看到消息
AI server這塊,NV根本不用認真鳥CXL,他靠nvlink
和nv switch ,把cpu gpu各種擴充,已經蒿吐露絲了
。
CXL 擴充的需求,我反而覺得在未來edge 端
越南 印度 好像都有公司在弄CXL
你要不要先搞清楚CXL三種type的應用再來發問?這兩
個根本是懶覺比雞腿
NVDA的NVLink目的是為了讓GPU彼此之間互相溝通,過
去兩顆GPU要溝通需透過PCIe連到CPU,CPU再連到另一
顆GPU,會有延遲及頻寬不夠的問題,所以NVDA弄了N
Vlink,讓2顆甚至8顆GPU直接互連,頻寬也拉到900G
B/s,更猛的是,在下一代的GB200裡面,NVlink有了
CPU to CPU互連以及memory pooling的功能,讓GPU除
了用自身的HBM以外可以使用CPU的記憶體。而memory
pooling也是CXL的目的,只是目前受限x86 CPU支援
度以及PCIe發展緩慢(CXL是走PCIe),CXL 1.0只能
用擴充的方式,CXL 2.0以後才能支援類似NVlink CP
U 之間memory pooling的功能,推出時程遙遙無期。
AVGO強的是Ethernet switch跟PCIe switch,最近漲
是因為800Gb的TH5晶片還有幫Google開ASIC,跟CXL無
關。
感謝樓上板友說明
簡單來說,CXL想讓cpu能擴充memory 的好處,NV lin
k都在gpu對gpu 互連做到了,nv link 也能將cpu和gp
u 互連,根本就不靠pcie。如上面網友所說,pcie to
tal bw 先打贏112g c2c再來講
讚 看推文長知識
NVLink要能連CPU大概只有NV 自己推arm cpu能用吧,
x86 platform CPU不太可能會去支援nvlink
自信點,把太拿掉。nv 當然是自己做的cpu才擺nvlin
k呀。grace cpu 是arm 架構沒錯
那會不會最後interl x86被NV打趴?還是說x86還是有
自己的應用市場?
大哥你要做報告自己找資料 不然請付錢
我也不想隨便餵你假資料 但你這麼伸手實在是...
AVGO強的是老板 再說一次 你不信去 SV問問人
那幾個底層都差不多 只是一堆protocol 有差別
CXL都在看3.0以上了 看舊的是要盧哦
純軟路過幾乎看不懂 但看完還是挺爽的 這些技術真
是酷
我沒有要做報告喔,純粹聊一下,我是做不同領域的de
sign
56樓有料
Intel X86不會被打趴啦,NV 做cpu是給自己用,不是
要去搶cpu的市場
樓上 ..... 你不是這個圈子的XD
回b大,我是覺得NV的野心沒那麼小……XD
這兩個根本不是同一個東西
30
Re: [請益] AI伺服器成本分析——記憶體是最大的輸家老黃今天展示的那櫃 Grace Hooper 就用了144TB GPU Memory 透過NVLink共享 (NVLink是他們自研的SERDES 簡單來說就是PCIe更快的介面) 所以重點只是高速 共享26
[情報] 技嘉 RTX 4090顯示卡擁有隱藏的NVLink連超頻者Der8auer的一個有趣發現。他測試並隨後拆解採用RTX 4090系列的AORUS Master GPU。 事實證明RTX 4090(AD102 GPU)可能支援NVLink連接器。因為GIGABYTE的PCB設計清楚地顯示了連接器並隱藏起來,但它從未變成真正的NVLink。眾所周知NVIDIA放棄了為其旗艦遊戲GPU添加多GPU連接器的想法,而且目前似乎沒有一款RTX 40顯示卡可以使用。 如圖所示GIGABYTE團隊顯然在為NVLink設計他們的卡,這適用於AORUS Master或Gaming OC版本。從TechPowerUp RTX 4090拍攝了的PCB照片,並將它們合二為一 這表明GIGABYTE是唯一一家 將NVLink納入其卡的公司。12
[情報] NVIDIA發佈Grace CPU:144核心+500WNVIDIA發佈Grace CPU處理器:144核心+500W 除了萬眾矚目的Hopper架構H100加速卡,NVIDIA在GTC 2022大會上還發布了專為AI及超級電 腦設計的CPU處理器Grace,擁有多達144個內核,記憶體頻寬高達1TB/s,整體功耗僅為500W ,官方表示性能上根本沒有對手。10
[情報] AMD 宣布 5 年內導入 CXL 技術至消費等MD 宣布 5 年內導入 CXL 技術至消費等級處理器市場 作者 Atkinson | 發布日期 2022 年 10 月 27 日 14:15 外電報導,處理器大廠 AMD 網路研討會出人意料透露新計畫,3~5 年內將 Compute EXpress Link(CXL)技術導入消費市場等級 CPU,代表將非消逝型記憶體技術帶入記憶體匯流排,提高性能。利用 CXL 記憶體模組和系統記憶體共用大型記憶體共享池概念,可獲更高性能、更低延遲、記憶體擴展功能。 AMD 計畫與英特爾 Optane 不同,CXL 藉由開放協議已獲得產業的廣泛支援。建立在 PCIe 標準的物理和電流介面,不但能讓 CPU、GPU、FPGA 或其他加速器達成高速高效相連,滿足高性能異構計算要求,還支援多種記憶體。成立於 2019 年的 CXL 聯盟,英特爾和 AMD 都是成員,CXL 標準到 3.0 版。 AMD 研討會涵蓋多層面,如 AM5 平台、DDR5 記憶體、PCIe 5.0 SSD 應用與技術等。儲存和記憶體經理 Leah Schoeb 表示,3~5 年內先在伺服器領域看到非消逝型記憶體技術,然後再到消費等級市場領域。AMD 將確保系統記憶體與其他存儲設備可通過 CXL 協議,在同匯流排連結通訊。7
[情報] GTC 2022 : NVIDIA Grace CPU 再揭更多消息NVIDIA 在先前宣布首款基於 Arm Neoverse 架構的自主研發超算等級 CPU 產品 Grace ,此次 GTC 大會也公布 Grace CPU 即將在 2023 年第一季推出 的消息,同時還公布屆時 Grace CPU 的兩種小晶片架構延伸產品 Grace CPU Superchip 與 Grace Hopper Superchip 。3
[請益] 機器學習 Nvidia Tesla T4 or Quadro RTX目前打算購入一台機架式伺服器,目標是HPE或Dell的2U型號,如HP DL380 G10的入門雙路配置 諮詢了業務代表,考慮到目前的PCI-e lanes的狀況, Tesla T4是可以插入七塊的,而Quadro RTX 8000因為預算的緣故,大概只能購入兩塊 Tesla T4是不支援NVlink的 不過Quadro RTX8000有一個問題,如果我想把兩塊配置到不同的CPU上,伺服器的PCIe托架是分開的,似乎沒有這種NVlink 可以把兩塊連起來?3
Re: [請益] 機器學習 Nvidia Tesla T4 or Quadro RTX目前確實打算等GTC 2020後再打算,因為只有一個月左右時間可能還能等 說一下目前做的功課 1. 參考 fo40225 大的文章決定除GPU部分的配置 #1SxhRJ80 (PC_Shopping) 2. Nvidia vGPU認證資料- 隨著人工智慧(AI)和高性能運算(HPC)應用的增加,資料中心對資料吞吐量的需求急劇增長。PCI-SIG積極地將規格擴展到使用PAM-4調變的PCIe Gen6,而在2019年,Intel和眾多供應商成立了CXL聯盟,並將規格推進到CXL 3.0,所有這些舉措都是為了應對大規模計算的需求。然而,新技術也帶來了更多未知問題,需要我們面對。 翔宇科技股份有限公司和美商Viavi Solutions非常榮幸地邀請站上各位年薪三百萬的大大們參加我們即將舉辦的線上研討會,主題為《探索PCIe 6.0和CXL技術:AI和HPC高性能運算的下一波浪潮》。這次線上活動將深入探討PCIe 6.0和CXL對AI/HPC的影響,以及這些新技術帶來的挑戰和機遇。 我們邀請了資深產業分析師,分享主要產業領袖對PCIe和CXL的見解。 此外,領先CXL產品的專家和捷迪訊光電有限公司的資深工程師將分享技術規格和分析經驗。這無疑是您深入了解產業未來趨勢的絕佳機會。 本線上研討會僅接受公司email的報名,不接受個人郵箱喔