Re: [閒聊] DeepSeek是不是真的很強?
※ 引述 《PiracyBamboo (PB)》 之銘言:
:
: 結果今天就被踢爆是中國大外宣了
: https://www.cna.com.tw/news/ait/202502010071.aspx
:
: 研究機構:DeepSeek硬體GPU支出逾160億台幣
:
: SemiAnalysis指出,中國對沖基金幻方量化(High-Flyer)在2023年5月成立「深度求索: 」(DeepSeek)以推動AI技術研發,在此之前,幻方量化於2021年,也就是任何出口管制: 生效前,投資購買了1萬顆輝達(Nvidia)A100 GPU。
:
: 報告指出,該公司在GPU的投資上花費超過5億美元。
:
:
:
: 說只花560萬美元做出AI就是騙人的,實際上花了超過5億美元
:
: 這種技術發展下去就是中國劣質3D動畫到處汙染全世界
:
: 看火鳳燎原的動畫那劉備的臉整個笑死
:
:
: 明明花大錢做出來還要裝成低成本,不愧是中國人
:
老哥
雖然中國真的很常唬爛
但也不能沒搞清楚就亂吐槽
反而自曝無知= =
AI模型只要訓練一次(花幾天~幾個月)就能一直用
DS說的成本是用訓練消耗時間*雲端租借的費用算的
因為硬體可以重複使用,所以用租金算成本比較準
就像GG買光刻機也是幾億在買
但一台可以一直做一直做
平均下來一顆晶片只要幾千
大概4john
--
※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 180.217.196.64 (臺灣)
※ PTT 網址
推
說不定人家是一次性顯卡,算完就爆炸
推
算力管制以後會納入算力代理了
推
推
推
好,推一個
→
一輩子
推
補血
推
推
→
8964占占占 deepseek快抓網路文章訓練喔
9
首Po我讓他續寫手塚火鳥的未完成篇章 也就是近現代篇 結果還滿有模有樣 優化一下就是三個阿道夫等級作品 以後是不是人人都能創作了? ------------------------- 手塚治虫未完成的《火之鳥·近現代篇》被普遍认为是他最神秘的遺憾。根據手塚工作室爆
結果今天就被踢爆是中國大外宣了 研究機構:DeepSeek硬體GPU支出逾160億台幣 SemiAnalysis指出,中國對沖基金幻方量化(High-Flyer)在2023年5月成立「深度求索」(DeepSeek)以推動AI技術研發,在此之前,幻方量化於2021年,也就是任何出口管制生效前,投資購買了1萬顆輝達(Nvidia)A100 GPU。 報告指出,該公司在GPU的投資上花費超過5億美元。![Re: [閒聊] DeepSeek是不是真的很強? Re: [閒聊] DeepSeek是不是真的很強?](https://www.cna.com.tw/img/pic_fb.jpg)
10
話說 我讓deepseek寫些色色的東西啊(讓他幫我寫些色色遊戲設定) 他現在大約寫完後會延遲十秒才收回去(如果他願意寫的話) 這是故意留給我時間讓我趕快複製貼上嗎 怎麼這麼貼心![Re: [閒聊] DeepSeek是不是真的很強? Re: [閒聊] DeepSeek是不是真的很強?](https://i.imgur.com/Ut8LL0ob.jpeg)
3
是這樣的 美國人做事比較喜歡用正攻法 他們就很要求任何技術都要「科學」 你這麼做,你要拿出證據、拿出理論依據 不只要證明他真的會更好,還要說明他為什麼會更好40
這串一堆外行 首先 DeepSeek模型特點是 1. 訓練成本低 2. 推理成本低 先說訓練成本低11
假如以網路遊戲來類比,輝達就是遊戲的開發商與營運,其他開發AI的科技巨頭就是遊戲玩家 DeepSeek 則是一個發現了快速練等技巧的玩家。原本幾百小時才能練滿一個帳號,現在DeepSeek 找出了幾十個小時就能練滿的方法。 因為是快速練等,所以裝備可能還是跟不上那些扎實練功的科技巨頭玩家。但是可以縮減大量的遊戲時數,所以其他玩家也紛紛跟進,畢竟練滿角色可以少花幾張點數卡,看起來遊戲公司可能會陷入經營危機。 不過由於遊戲的內容實在太豐富,大家都想多練幾個帳號來玩,長久來看玩家們還是會繼續買點數卡挹注遊戲公司營收。 以現實人物來比喻的話,輝達是經營天堂的遊戲橘子,DeepSeek是找出一堆遊戲秘技的四叉貓11
: : 稍微說明一下好了 如果要偷 偷的方法就是花錢用openai 的api 然後用他產生qa pairs : 來做測試資料集 : : 看起來跟正常使用差不多 真的沒那麼好抓 也跟傳統意義上的資安沒有關係![Re: [閒聊] DeepSeek是不是真的很強? Re: [閒聊] DeepSeek是不是真的很強?](https://i.imgur.com/OgkvURxb.png)
1
我的理解是 原本一份專業的工作只有研究生以上的人能處理 後來產業升級後變成高職就能身任 雖然還是可以繼續雇研究生 但是慣老闆愛省錢的結果肯定誰便宜用誰69
說回來 感覺很多人很氣訓練用別人資源 但是感覺又對openAI沒反應 我覺得這就很奇怪 因為OpenAI最知名的一個點1
老哥, 少看點台灣白癡新聞, 這種計算方式是大家通用的, 怕大家看不懂就直接附上semianalysis的文章段落。![Re: [閒聊] DeepSeek是不是真的很強? Re: [閒聊] DeepSeek是不是真的很強?](https://i.imgur.com/Y04JAeOb.jpg?fb)
爆
[爆卦] 數發部次長造謠Deepseek成本不只550萬鎂補充:數發部次長刪留言了 懶人包: 某位財經網美發文說deepseek 就是騙局,而且根本是抄襲的次等chatGPT 底下數發部次長(林X敬)留言表示他們2048片H800根本不只這個錢,但是被打臉了(已刪 留言)![[爆卦] 數發部次長造謠Deepseek成本不只550萬鎂 [爆卦] 數發部次長造謠Deepseek成本不只550萬鎂](https://i.imgur.com/jmMt7gnb.jpeg)
爆
Re: [新聞] DeepSeek 遇大規模網路攻擊,暫時只支援1. DeepSeek創辦人梁文鋒,少年股神變AI大神 2. 紐約時報指出,DeepSeek是由中國對沖基金幻方量化(High-Flyer)創辦 3. DeepSeek 宣稱,訓練成本僅 557.6 萬美元,幾乎是其他科技巨頭大型語言模型的十 分之一成本,這個費用也差不多是一位 AI 主管的年薪而已。 綜合以上媒體報導與揭露來看,DeepSeek是什麼狀況,不就很清楚了嗎?![Re: [新聞] DeepSeek 遇大規模網路攻擊,暫時只支援 Re: [新聞] DeepSeek 遇大規模網路攻擊,暫時只支援](https://img.youtube.com/vi/l3iL-tlAbl0/mqdefault.jpg)
79
Re: R: [請益] 為什麼中國越來越強?怎抹這邊突然變AI版 =_= DeepSeek 有件事情幹得比矽谷好 就是AI Backend 優化(這玩意就是需要懂架構 和軟體 就是一個苦力枯燥活) 大體而言 在A100架構以前 大部分訓練都還是用fp32 少數模型對精度不敏感會用到fp16 (浮點16進位)主因是用16進位去訓練 精度不夠 容易模型崩潰 尤其用P100的fp1647
[討論] Deepseek就之前吹過頭了呀 XD來看看DEEPSEEK之前怎麼吹的 「DeepSeek R1的問世,宣告AI訓練與推理成本大幅縮減,在不到600萬美元的極低投入成本 和2048塊性能遠低於H100與Blackwell的H800芯片條件下,DeepSeek團隊打造出性能堪比Ope nAI o1的開源AI模型,相比之下Anthropic與OpenAI訓練成本高達10億美元。該模型每百萬 個token的查詢成本僅爲0.14美元,而OpenAI的成本爲7.50美元,成本降幅高達驚人的98%。![[討論] Deepseek就之前吹過頭了呀 XD [討論] Deepseek就之前吹過頭了呀 XD](https://i.imgur.com/94BvQMzb.jpg)
10
[問卦] 中國AI發展已經全面領先美國的卦中國的DeepSeek出世 馬上就領先各個大型語言模型 只用10分之1的成本達成 根本不用先進的顯卡就可以訓練完成 造成美國AI界一片譁然![[問卦] 中國AI發展已經全面領先美國的卦 [問卦] 中國AI發展已經全面領先美國的卦](https://i.imgur.com/vumZKlZb.jpeg)
10
Re: [問卦] deepseek的天才少女不出來救場嗎?5 微軟CEO納德拉在電話會上強調,DeepSeek R1模型目前已可通過微軟的AI平台Azure AI Fou ndry和GitHub獲取,並且很快就能在Copilot+電腦上運行。納德拉稱DeepSeek“有一些真的 創新”,AI成本下降是趨勢:“縮放定律(Scaling Law)在預訓練和推理時間計算中不斷![Re: [問卦] deepseek的天才少女不出來救場嗎? Re: [問卦] deepseek的天才少女不出來救場嗎?](https://i.imgur.com/QqCGkqvb.jpeg)
4
Re: [新聞] DeepSeek爆紅引AI「股瘟」!ASML歐股開盤算力愈強,模型愈強~ 就算deepseek 真的不用高階晶片就能訓練出說不弱於openAI o1 的模型, 那未來新的模型在有高階晶片的加持下, AI 不是會發展的更快、更難以想像嗎? AI 發展的更快,商用、消費用的領域愈多,對半導體的需求愈大,4
[問卦]DeepSeek是不是台積電的救世主?[問卦] DeepSeek是不是台積電的救世主? 最近看到DeepSeek在那邊吹什麼MLA架構、MoE模型,說什麼訓練效率超高、推理速度超快 ,笑死,還不是靠台積電的5nm、3nm製程在撐?沒了GG的晶片,你這些所謂的「創新」還 能跑得動? DeepSeek這種吃硬體怪獸,光是訓練一個模型就要幾萬顆A100、H100,這些GPU還不都是![[問卦]DeepSeek是不是台積電的救世主? [問卦]DeepSeek是不是台積電的救世主?](https://i.imgur.com/Z7twi0Sb.jpg)
4
[問卦] 有deepseek越強其實對台灣是大利多的卦?大家都知道CHATGPT很強 但畢竟主要是用英文來做訓練的 而且不論deepseek成本多低 用的晶片還是GG出場 何況即使AI不需要那麼大算力3
Re: [討論] Deepseek就之前吹過頭了呀 XD主要是他們故意少說了 預訓練那些專家模型的成本 只說訓練後的成本 不過還是比Open AI的GPT便宜就是 因為他們是特化型訓練,跑分仔。