PTT推薦

Re: [新聞] 雷蒙多態度髮夾彎 允輝達向中國出售AI晶

看板Stock標題Re: [新聞] 雷蒙多態度髮夾彎 允輝達向中國出售AI晶作者
LDPC
(Channel Coding)
時間推噓 3 推:3 噓:0 →:36

這是最近幾天TSLA那邊AI晶片訊息
https://reurl.cc/bl1xdd
現在看來就是NVDA+AMD會繼續有機會在AI晶片市場拉一波 最近另外一個比較紅的新聞是Mistral AI小公司開發的LLM模型吸引不少人 而Misral AI是用CoreWeave租借算力
開發出來的大模型 這些小公司能靠租算力媲美大公司發展的模型
新聞大概都會讓老黃繼續開心賣他鏟子


※ 引述《qwe22992168 (蛋疼)》之銘言:
: 原文標題:雷蒙多態度髮夾彎 允輝達向中國出售AI晶片
: 原文連結:https://www.ctee.com.tw/news/20231212700408-430701
: 發布時間:2023.12.12 08:26
: 記者署名:工商時報 呂佳恩
: 原文內容:
: 美國商務部長雷蒙多(Gina Raimondo)11日表示,美國正在研究輝達為中國市場開發的: 產品,並於早前與輝達執行長黃仁勳就晶片出口進行討論,她指出,輝達「能夠、將會且: 應當」向中國出售人工智慧(AI)晶片。
: 美國拜登政府於今年10月擴大晶片管制,劍指AI算力領域,雷蒙多更於本月稍早點名輝達: ,直言該公司透過推出降規版晶片特別供應中國,她強調,企業不應為短期收入犧牲國安: ,並警告稱,若再次繞道降規,商務部將會立即出手管控。
: 不過,雷蒙多11日接受媒體訪問時態度明顯軟化許多,她透露商務部將檢查輝達為中國市: 場開發的晶片,以確保其不會違反出口管制,並指出該部定期與輝達溝通,該公司是很好: 的合作夥伴,雙方共享資訊。
: 雷蒙多表示,由於多數AI晶片皆用於商業用途,輝達「能夠、將會且應當」向中國AI晶片: ,不過不會讓該公司出售其最精密、處理能力最高的AI晶片,以避免中國藉此訓練先進AI: 模型。
: 雷蒙多補充指出,她一周前曾與黃仁勳溝通,黃仁勳的態度相當明確,即該公司無意違反: 拜登政府的規則,願與政府合作,並希望在向中國銷售AI晶片時做「正確的事」。
: 針對雷蒙多的最新言論,輝達表示,目前正在與美國政府合作,在遵循規範的同時,致力: 於為全球客戶提供資料中心解決方案。
: 至於商務部是否會對輝達的新晶片祭出任何限制,該部門拒絕發表評論,但重申會不斷更: 新規則,以應對瞬息萬變的威脅。
: 另外,雷蒙多再次呼籲國會通過立法,以解決TikTok等外國應用程式對國家安全構成的潛: 在威脅,並強調受到規範的不應只有TikTok,因此更需要由法律途徑對此進行管制。
: 心得/評論:
: 未來黃勳仁可以向中國出售AI晶片了
: 難怪NVIDIA的股票又在漲了
: 中國又贏了 又能做AI暴打美帝了
: 美帝又輸了 為了賺錢一樣跪下去
: 用美帝的技術來暴打美帝 吃你的飯 砸你的鍋 嘻
: 不愧是制度自信 道路自信 超英趕美 彎道超車

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 67.169.111.72 (美國)
PTT 網址

musie 12/13 02:21我倒覺得Mistral會把算力需求打下去

musie 12/13 02:221. 他主打7B~10B model 強調小模型也可以達標

musie 12/13 02:242. 他的MOE就表明 可以用8x7B 去Complete 40B

LDPC 12/13 02:517B 也要接近千顆gpu耶。8,個agent就要上萬啊

musie 12/13 03:00?? ?你在講啥 一個H100就可以train GPT-3 175B mode

LDPC 12/13 03:04還有scaling law 算力只會要更多啊

LDPC 12/13 03:05h100 80gb 單顆train 100B以上模型?

LDPC 12/13 03:07llama 7b 是82432 hours 80gb A100單顆

LDPC 12/13 03:08h100大概是a100兩倍 用千顆train 也要三天才能train

LDPC 12/13 03:08完整一次

LDPC 12/13 03:107b現在最陽春做法training也要百顆啊

LDPC 12/13 03:13還沒說100b模型用1byte 方式load 要100gb ram 也超

LDPC 12/13 03:13過單顆h100 80gb 記憶體容量

musie 12/13 04:12我的意思是time/money trade-off

musie 12/13 04:141024 A100 train GPT3 需要34d 但我也可以128 340d

musie 12/13 04:14我看7B model是不用一天就跑完.. 跑個2week也沒差

musie 12/13 04:15反正到最後都是卡在data quality

LDPC 12/13 04:18有差啊。你沒此調整一個參數 learing rate 或schedu

LDPC 12/13 04:18le 就兩個裡拜看結果

musie 12/13 04:19而且現在fine-tune都用LORA 記憶體可以大砍

musie 12/13 04:19只有做foundation model的要整個model

musie 12/13 04:20現在做foundation model也才那幾家..

LDPC 12/13 04:21等你找到對的data 架構和training。至少要數十次調

LDPC 12/13 04:21整 每次五天和每次一個月 差距就是被幹掉

musie 12/13 04:21大大做foundmaion model嗎 我們應用沒有這麼多錢

LDPC 12/13 04:22這也是為何meta有五萬張a100 就是搶縮減時間

LDPC 12/13 04:23misra就是做pretrained llm

musie 12/13 04:23應用面就真的都卡在生資料和洗資料 我是不覺得

musie 12/13 04:23大家還會瘋狂搶GPU啦

LDPC 12/13 04:23現在不是只有大廠玩的起 很多學校也玩的起

Alwen 12/13 06:03推特有人說大概明年上半年就能看到有人把GPT4等級的

Alwen 12/13 06:04模型開源,大廠大模型還真的沒辦法獨佔惹

EvilSD 12/13 06:44上半年要把GPT4等級開源很難吧 誰要開第一槍

EvilSD 12/13 06:45哪個大廠願意開源給你fine-tune

Alwen 12/13 07:07很快阿 現在開源已經追上3.5惹

Alwen 12/13 07:07再花半年達到GPT4 蠻正常DER

Alwen 12/13 07:08這東西以後只會越更新越快而已

Alwen 12/13 07:09當然那時候GPT4.5已經推出惹八

cosmo7897 12/13 07:337b叫做小模型XD 真會凹