PTT推薦

Re: [標的] NVDA財報

看板Stock標題Re: [標的] NVDA財報作者
waitrop
(嘴砲無雙)
時間推噓37 推:43 噓:6 →:89

其實對於妖股而言,
財報數字如何根本就不重要,
在12/17 鄉民鼓吹放空NVDA, TSLA的時候,
我就警告不要放空妖股,
雖然我不敢買本益比這個高的妖股,
但是我也不敢去放空
https://www.ptt.cc/Stock/M.1671254257.A.AAA

還是要再重複一次我一在叮嚀的話,
美國人不存錢, 只存退休基金,
TSLA, NVDA, AMZN, CRM 是跟美國退休基金掛鉤,
股價不是散戶或一般投資人能撼動的,
這其中,
TSLA 跟 NVDA 的老闆是更活躍更懂的讓華爾街開心,
AMZN 自從 Jeff 退休之後,
其實跟華爾街已經沒什麼很麻吉的交情了

至於說ChatGPT 能夠讓NVDA 獲益多少,
這都還很難說,
因為大部分做AI的大公司都有自己的ASIC團隊自研 AI 加速器,
像是Google TPU+tensorflow 是比較有名,
但是MSFT, AMZN, BABA 等公司也是有自己的加速器,
問題在於AI/ML 的researcher 不願意用自家的加速器+framework,
而是指定一定要用Nvidia + CUDA,
我待過的公司每家都遇到這樣的問題跟這樣難搞的researcher
所以是人的問題,
不是真的技術或硬體的問題

不過基於看好AI/ML+ChatGPT,
我個人還是會繼續買AAPL, GOOG, MSFT,
當然如果NVDA 跌到100 多,
或許我會買一些, 但是機率很低


※ 引述《phylen (hoho)》之銘言:
: 1. 標的: NVDA.US
: 2. 分類: 討論
: 3. 正文:
: 22Q4財報 (yoy %)
: Revenue $6.05b, down 21%
: GM 63.3%, down 2.1%
: OpEx $2.58b, down 58%
: Op Income $1.26b, down 53%
: EPS $0.57, down 52%
: DC $3.62b, +11%
: Gaming $1.83b, down 46%
: ProVis $226m, down 65%
: Auto/Em $294m, +135%
: Cash/Cash Eq $13.3b, down from $21.2b
: Accounts Receivable, $3.8b, down from $4.6b
: Inventory $5.1b, up from $2.6b
: Other Asset $791m, up from $366m
: 23Q1 guidance
: Q1 Revenue $6.5b, +/- 2%
: GAAP GM 64.1%
: GAAP OPex $2.53b
: Tax rate 13.0%
: https://i.imgur.com/FRXKhKJ.jpg

: https://i.imgur.com/VLHKoMA.jpg
: https://i.imgur.com/Tct4033.jpg
: "Inventory was $5.16 billion, or DSI of 212, primarily to support the ramp of: new products in Data Center and Gaming.
: 庫存高是為了支援後續dc/gaming新產品的量產
: 4. 進退場機制:(非長期投資者,必須有停損機制。討論、心得類免填)

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 24.5.140.41 (美國)
PTT 網址

omanorboyo 02/23 12:53本來就不太重要 看看聯發科 看看M31

kausan 02/23 12:54重點是fu糗

loat 02/23 12:55google最近好慘啊

tomdavis 02/23 12:55公司自己開發的有比大家在用的好用就願意換了

moike22 02/23 12:55GOOGLE慘到不行

LDPC 02/23 12:56NVDA多少佈局 再者現在大家都是拿open source code

tigerzz3 02/23 12:56ChatGPT出來 100多很難了

tomdavis 02/23 12:56前面的扣都用N社套餐寫的 跳別的不就是自找麻煩嗎

KadourZiani 02/23 12:56愛大去年11月就預言慢牛最後買點了

LDPC 02/23 12:56在研究環境裡 複製實驗的話當然挑跟別人一樣環境啊

centaurjr 02/23 12:57GOOGL等8字頭來抄點看看阿

centaurjr 02/23 12:57快到了

LDPC 02/23 12:57光是許多train出來model在不同環境 隨機性都會差很

LDPC 02/23 12:58整個AI社群搭起來後 當然是站在巨人肩膀上啊

tomdavis 02/23 12:58除非是技術發展完全 要做特別的加速那再去改寫

你們說的都對, NVDA CUDA 出來最快, 跟學術界合作最久, 所以後面要超過 CUDA 很吃力, 但是有幾點要澄清, CUDA 不是 open source, 專利所在 NVDA, 所以變成今天用 CUDA 的 model, 以後也只能用 CUDA 跑 反而是tensorflow, pytorch, keras 這些才是open source, 目前除了 NVDA CUDA 是自家獨家擁有之外, 其他AAPL, GOOG, MSFT, AMZN, META/FB, BABA 都是開發 tensorflow, pytorch, keras 的架構 另外, tensorflow, pytorch, keras 蠻好用的, 我個人覺得比CUDA 好用, 抱歉, 我的程式能力不好, 喜歡寫python 這種包套好的東西 當然如果錢跟花費差不多的話, 甚至NVDA 貴一倍的話, 公司還是願意用NVDA 的 solution, 問題是, NVDA 的 solution 是自家研發的十倍以上cost

※ 編輯: waitrop (24.5.140.41 美國), 02/23/2023 13:06:38

LDPC 02/23 12:59通常在下游任務才會去客製化搭自家硬體

LDPC 02/23 12:59在上游算法驗證階段 N社環境解決很多問題 甚至

LDPC 02/23 13:00你在複製實驗時 上面都會註明環境設定 甚至

LDPC 02/23 13:00連random seed都幫你標好 為了就是讓實驗有可複製性

i376ers 02/23 13:00等抄底GOOG

strlen 02/23 13:01幫雜空默哀

LDPC 02/23 13:01如果你換一套硬體 一堆backward update 根本無從檢

LDPC 02/23 13:01檢查gradient隨機性 這時候你效能就真的是隨機

LDPC 02/23 13:03更別說這波老黃從Argo/Toyota 那邊吃了不少個人才

zitto 02/23 13:04感謝分享

LDPC 02/23 13:04chatgpt只是生產工具一個象徵 其他還有diffusion

morphine082102/23 13:05以前欠下的技術債總要還的

LDPC 02/23 13:05最近nvda還吃到語音套件去了 老黃就是在AI賣好用

LDPC 02/23 13:05鏟子 你要用自己開發的鏟子去開發龐大模型 還考慮

DrGun 02/23 13:05人der問題好解決 看老闆要不要硬起來而已 當黃seafo

DrGun 02/23 13:05od 越賣越貴 窩9不信高層不會壓著底下找second sour

DrGun 02/23 13:05ce 降低成本

strlen 02/23 13:06不能怪人才制定要老黃的框架阿 啊這就最熱門的齁

LDPC 02/23 13:06實驗複製性 效能對標 我覺得從現實角度不太可能

strlen 02/23 13:06我學別的 換間公司又沒P用 自找麻煩學CP值低的東西?

haski 02/23 13:08看好ChatGPT怎麼還會選擇Google?

ChatGPT 跟 Bard 是一模一樣的東西, 只是ChatGPT 最近吹很大, Google 反應太慢, 應用也太慢, 但是本質上, 算法上, 實作上, 這兩個是一模一樣的東西

lolpklol097502/23 13:08拉高出貨

LDPC 02/23 13:08你模型train完之後 deploy model到客制硬體是可以的

LDPC 02/23 13:09但你現在拿一個自己開發框架 然後你照paper刻一樣

※ 編輯: waitrop (24.5.140.41 美國), 02/23/2023 13:11:23

LDPC 02/23 13:09架構 然後你會花一堆時間在調整epoch/batch/lr

LDPC 02/23 13:10甚至random seed 因為你硬體環境都不同了 前人給你

LDPC 02/23 13:10的參考config都不在可用 那你等於是花一堆時間去

LDPC 02/23 13:11重調參數 甚至光是optmizer(adam/sgd)這些討論串

minikai 02/23 13:11如果你當賣模型的話你訓練就綁cuda了,你模型丟到

minikai 02/23 13:11不同環境去做predict還是要用到cuda才能跑,通用性

minikai 02/23 13:11高大家為何要自己刻。

LDPC 02/23 13:11你都要重新來過 幹嘛不站在巨人肩膀上 用成熟環境

LDPC 02/23 13:12上面言論就跟 只要有無限金錢我也可以開一家台積店

strlen 02/23 13:12話不能這樣說吧...不然iOS跟安卓 本質也是一樣的啊.

tomdavis 02/23 13:14MSFT GOOG 先前都有大模型的研究與嘗試

LDPC 02/23 13:14bert和gpt3是不同的 chatgpt是來架在gpt3框架上

EvilSD 02/23 13:15這問題感覺探討的點面向有點多呀 光是訓練還是實現

EvilSD 02/23 13:15,以及是要佈署環境不同差異就蠻大

LDPC 02/23 13:15google bert最大問題不是架構 是在於data的累積

kweisamx2 02/23 13:15拿Cuda 比tensorflow?外行

EvilSD 02/23 13:16如果單純討論訓練階段,除非自己的工具能夠像Google

EvilSD 02/23 13:16一樣成熟,不然不走NV的環境應該是挺痛苦的

LDPC 02/23 13:16openAI搜集的data數據量已經有好幾年 海放google

EvilSD 02/23 13:18現在大部分公司應該也都是用NV的環境進行訓練(如果

EvilSD 02/23 13:18有錯可以糾正我)

目前訓練跟應用大致分成兩塊, 1. image, 2. NLP image 已經非常成熟, 不論是人臉辨識影像辨識修改等等, 目前已經有非常成熟的算法, app, 以及自家研發的硬體, 在這塊上面, NVDA 並沒有優勢也沒賺很多 2. NLP, 尤其是 LLM, 也就是目前最熱的ChatGPT, 目前只有NVDA 唯一一家, 跟Google 內部使用的 TPU

※ 編輯: waitrop (24.5.140.41 美國), 02/23/2023 13:22:21

haski 02/23 13:19在股市可不會因為產品本質相同, 相關個股就能齊頭

haski 02/23 13:19大漲

Socpow 02/23 13:19也不是researcher難搞,這是社群的力量。CUDA遇到大

minikai 02/23 13:19Cuda跟tensorflow、pytorch、keras是兩種不同層面

Socpow 02/23 13:19部分技術問題隨便搜尋都能找到答案,這可是累積了一

minikai 02/23 13:19的東西,不懂為啥你要拿出來一起比

我知道是不同層面的東西, 但是我真的是遇到這樣的問題, 而且不只一次也不只一家公司, 我舉例來說, 某個researcher 跟我說要用CUDA 建 model, train model, 我說我們是自研的ASIC, 沒有CUDA, 但是我們支持同樣上層的framework, 也就是請researcher 用tensorflow、pytorch、keras 建 model, train model, 得到答案當然是打死不願意, 公司必須花十倍以上的錢去買NVDA solution 給他CUDA, 不要問我為什麼 research 一定要CUDA, 我也不知道, 我都是用 tensorflow、pytorch、keras

Socpow 02/23 13:19二十年前人的血淚,in house 要追上很難。況且新穎

Socpow 02/23 13:19研究放上github大都是pytorch, 為了快速復現結果誰

Socpow 02/23 13:19有時間還先去做轉換framework的苦工。但這是研究開

Socpow 02/23 13:19發方面而已,未來更大的需求是在inference,為了降

Socpow 02/23 13:19低成本一定是要asic的

tomdavis 02/23 13:20自家的framework可以跑相同的扣就會願意用

LDPC 02/23 13:20inference就是下游model deployment 這是另外一個環

EvilSD 02/23 13:20等等 bert架構上問題也不小吧 好多年前的技術了

LDPC 02/23 13:20你甚至都不需要gpu 你可以用隨意硬體計算機 你要的

EvilSD 02/23 13:21現在google做的Lemda與Bard 模型框架肯定更龐大

LDPC 02/23 13:21只是model裡面所有權重分佈而已

Wuoo 02/23 13:24沒關係 gpu準備噴

※ 編輯: waitrop (24.5.140.41 美國), 02/23/2023 13:28:30

minikai 02/23 13:25訓練用到gpu,Inference不用很正常,但是也是要看

minikai 02/23 13:25能接受inference多久產生結果,如果今天你的場景是

minikai 02/23 13:25要10秒就得到結果,但是因為沒gpu你要1分鐘才能有

minikai 02/23 13:25結果,你還是需要用到gpu。

tomdavis 02/23 13:26你想想N社為什麼有底氣貴10倍

JohnGalt 02/23 13:27CUDA是用來做硬體加速的吧,tensorflow是調用算法

JohnGalt 02/23 13:27訓練模型的,兩者可同時使用。

tomdavis 02/23 13:28同樣的code把cuda拔掉自家的加速器能跑一樣效果嗎?

yiefaung 02/23 13:29DL framework 跟 CUDA比 BERT跟GPT一摸一樣 呃呃 建

yiefaung 02/23 13:31意寫之前先問chatgpt

leoloveivy 02/23 13:33看不懂

haski 02/23 13:34就算BERT和ChatGPT一模一樣,但在股市就是只有Lea

haski 02/23 13:34der能被資金追捧

JackChung 02/23 13:34要榨出硬體最後一滴效能當然要CUDA甚至PTX

DrGun 02/23 13:34非CUDA不可94教主前幾篇講der利益集團R researche

DrGun 02/23 13:34r自己也買很多黃seafood der股票8

Severine 02/23 13:34bert已經是古董了

不是bert, 是 Bard, 抱歉, 我真的不熟這塊, 這個project 也不是我做的

※ 編輯: waitrop (24.5.140.41 美國), 02/23/2023 13:36:29

JackChung 02/23 13:36更認真的人連SASS都下去寫了

JackChung 02/23 13:37NVDA在vendor lock in 這邊做得非常好

aegis43210 02/23 13:38TPU之類的ASIC泛用性太低,不像GPGPU可以訓練多種模

aegis43210 02/23 13:38型,雖然H100也加了不少ASIC,但泛用性仍是高很多,

aegis43210 02/23 13:38尤其是訓練方面

JackChung 02/23 13:38各種 ML framework 的抽象化都是隔靴搔癢

JackChung 02/23 13:39看 Triton 在 OpenAI 加持下能不能起到一些變化

tomdavis 02/23 13:42寫扣仔跟manager不要為難researcher阿QQ

我就是廉價隨插隨丟的寫扣仔, 問題是, 不是我要為難researcher, 是researcher跟manager為難寫扣仔, researcher 是我們內部的客戶, researcher 一定要CUDA, manager 不懂一樣的tensorflow、pytorch、keras, 為何一定要CUDA, 我夾在中間不是人

※ 編輯: waitrop (24.5.140.41 美國), 02/23/2023 13:45:55

a9564208 02/23 13:43NVDA布局都幾年了,幾年前就聽到實驗室用N卡在跑

tomdavis 02/23 13:46你就去找researcher當面看他跑看結果一不一樣囉~

tomdavis 02/23 13:47或是貴司應該考慮加錢找碰更多code的researcher來做

a9564208 02/23 13:47前面累積了這麼多經驗,不然出事你負責?

lise1017 02/23 13:48你是指靠吹風的谷歌嗎?有時候有些巨頭只是沒參加

lise1017 02/23 13:48考試 事實上一考下去跟初學者一樣

DrGun 02/23 13:50Researcher也在為自己der未來做打算8 CUDA目前94業

Harlequin72702/23 13:50Gool是怎樣 要倒了是不股價那麼難看 明明護城河深

DrGun 02/23 13:50界標準 尼們叫窩不用CUDA 窩去下一家der履歷怎麼寫

Harlequin72702/23 13:50到不行

DrGun 02/23 13:50

a9564208 02/23 13:53這種事就跟乖乖一樣,綠色的放了沒事你偏要放黃色

a9564208 02/23 13:53,出事你要扛嗎?

kimula01 02/23 14:03這股價真的會被AI給炒上噴

hank830320 02/23 14:03NV是種信仰

tomdavis 02/23 14:06https://i.imgur.com/5fkClG5.jpg 梗圖竟然也能用!

maykizuki 02/23 14:13Ai=all in

donkilu 02/23 14:13你講的都是上層framework 怎麼在硬體上跑是另一回

donkilu 02/23 14:13

donkilu 02/23 14:16CUDA支援高階framework綽綽有餘 自研asic…你確定

donkilu 02/23 14:16

donkilu 02/23 14:16Compiler driver都要從頭開始寫 通常會缺東缺西

hidalgo2297602/23 14:24Bert是encoder好嗎...不一樣

hidalgo2297602/23 14:26但你要說他跟gpt一樣,我也沒意見,確實是相同概念

hidalgo2297602/23 14:26的東西 gpt本身沒啥價值

hidalgo2297602/23 14:26至於bard跟chatgpt 確實是一樣的東西

hidalgo2297602/23 14:28gpt唯一的價值就是土豪了,還有講openai收集資料tra

hidalgo2297602/23 14:28in gpt ... 講什麼笑話

hidalgo2297602/23 14:29會講這種的就是連gpt3怎麼train的都不知道,才會說

hidalgo2297602/23 14:29出這種天大笑話

tomdavis 02/23 14:43美國公司 研究員可能只會用同一套件 其他的擺爛

tomdavis 02/23 14:43但如果自家東西真的能跑 還是推不了那也很奇怪

tomdavis 02/23 14:45NLP近年要訓練肯定都要GPU了 用N社卡那綁定CUDNN

tomdavis 02/23 14:47你們自家framework能跑的話那底層應該是超大工程

Wuoo 02/23 14:542465準備噴