Re: [新聞] 博通報喜 ASIC台廠有看頭
ASIC 應該是主要用在inference.
Inferrence晶片的複雜度沒像training 晶片那麼高。
NVDA在資料中心的霸主地位,目前還沒有看到威脅。
Device端的推論, 競爭者有幾家, 最後就是殺價競爭。
結論: Strong 拜 NVDA
chatgpt的分析如下:
Inference(推論)和 Training(訓練)在深度學習中的晶片設計存在一些顯著差異,主要是由於兩者的計算需求和工作負載特性不同。以下是它們的關鍵差異:
1. 計算類型需求
Training:
訓練需要執行大規模的矩陣運算(如前向傳播、反向傳播和梯度更新),這涉及到大量的浮點數運算(特別是 32-bit 或 16-bit 浮點數)。
訓練需要支持高精度和高吞吐量的運算,以保證模型的學習效果。
Inference:
推論通常關注延遲(latency)和能效(power efficiency),需要更快但稍微低精度的運算(如 INT8 或 BF16)。
計算需求相對較少,更多依賴優化的推論加速和模型壓縮技術。
2. 記憶體需求
Training:
訓練時需要存儲和操作巨大的參數矩陣、中間激活值和梯度。
需要非常高的記憶體頻寬和容量來支持多層模型的並行運算。
Inference:
推論只需要讀取已訓練好的模型參數和執行前向傳播,所需記憶體更少。 記憶體頻寬需求較低,但對於較大的模型可能仍需優化記憶體訪問。
3. 架構設計
Training:
訓練晶片(如 NVIDIA A100、H100,TPU v4)通常設計為通用型,支持多種運算需求(矩陣計算、高精度浮點運算等)。
晶片內有更多的計算單元(如 Tensor Core 或 Matrix Processing Units)和更大的記憶體(如 HBM)。
Inference:
推論晶片(如 NVIDIA T4、Jetson Orin,TPU Edge)通常針對低功耗和實時性進行優化。
設計更專注於 INT8 或類似格式的低精度運算,加速特定操作如卷積和激活函數。
4. 功耗和散熱
Training:
訓練晶片通常功耗較高,因為需要處理高吞吐量的計算任務。
設備多部署於資料中心,配備強大的散熱和供電系統。
Inference:
推論晶片針對能效進行優化,功耗較低(特別是在邊緣設備上)。
更適合嵌入式或移動設備環境。
5. 部署場景
Training:
通常在大型資料中心或超算設施中運行,依賴分布式系統進行大規模運算。
Inference:
部署在多種場景,包括資料中心(如雲服務)、邊緣設備(如手機、IoT 裝置)、自駕車系統等。
總結
Training 晶片 強調高效的並行計算、精度和記憶體帶寬,適用於離線的高強度模型訓練。
Inference 晶片 更關注延遲和能效,專為實時或低功耗環境設計。
因此,廠商通常針對這兩類需求分別開發晶片,以滿足不同場景的需求。
--
爆
Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售你劃錯重點, 先不論這篇論文的可行性與實用性, 你真的劃錯重點了 算力重要嗎? 重要但是不是影響販售/採購晶片的主因,24
Re: [標的] NVDA 長期無腦多借用這個標題吧 很久以前 我忘記是在哪篇看到的老美的如何推薦推介買老黃股票的原因 其中有一個點是 NVDA是殺手 擅長幹掉無數公司(e.g. 3dfx,ati) 然後這週末個小道消息 老黃瞄準30B市場打算做客製化晶片佈局....也就是要跟AVGO搶市場了 這也是可能為以後瞄準Inference的可能市場一個佈局了 --19
Re: [討論] AI晶片這我來回答吧 AI晶片一般是指用來加速深度學習模型推理的晶片 如果是訓練通常還是利用Gpu 因為生態系比較成熟 那麼深度學習推理時間會耗在哪裡呢 通常就是convolution 或是Gemm24
Re: [新聞] AI晶片競爭開跑,谷歌公布第四代TPU,宣周末下班閒聊, 發現tech版沒有這篇文章, 那就在這裡討論好了, 其實我說的東西都是網路 google+wiki 就有的東西, 先簡單說明一下現代化的ML DeepLearning的基本概念,11
Re: [討論] AI晶片現在業界單純說AI晶片是太籠統的說法了, 為了獲得最高效能與最高CP值, 業界把AI晶片細分成以下幾類, 1. Training 訓練: 這是目前業界最難做的部分,8
Re: [請益] ai晶片除了server還可以裝在什麼東西上上網查就有的答案, 我就稍微回答一下, ai 晶片/應用 分成兩個部分: edge computing vs cloud computing 其實這情況已經在電腦歷史發生五六十年了, 不要扯太多扯太遠,4
Re: [請益] 憑良心說AI要怎麼賺錢?1. 投資AI相關股票 - 投資如Nvidia的GPU製造商股票,因GPU對訓練人工智能模型非常重要 - 投資雲端服務供應商如Amazon Web Services、Microsoft Azure等,他們提供人工智能雲端運算資源 - 投資人工智能軟件公司如Google、OpenAI等知名AI公司的股票 2. 利用Nvidia GPU提供加速運算服務- 不知道為捨抹會講到邊緣運算啦QQ 不過老黃這波佈局就是替兩三年後落地場景客製化晶片 一般落地場景Inference(AI推理)的工程順序如下 拿一個PreTrain萬用大模型 用特殊資料FineTune 然後Deploy (Inference) 以LLaMA 7B模型為例 假設我今天要做一個醫療問診小幫手的AI 當我用一堆醫療資料 FineTune這個LLaMA 65B模型後達到我需求 (到此為此都會在Cuda生態圈做)