Re: [問卦] 自由時報笑了:Deepseek準確度超低
※ 引述 《oppo5566》 之銘言:
: 一早起來就看到自由A3在嘲笑DeepSeek
:
: 資訊準確率超低 只有17%
:
: 還有超過一半機率給沒有用的答案
:
: https://i.imgur.com/r066Tiw.jpeg

: 這樣比起來 台灣跟數位部是不是又贏了
聽說資訊準確率超低,
那麼為什麼會震撼美國?
昨天猜想的可能原因,再貼一次。
整理一下:
分兩個部分來說,
———————————————
第一個部分是澄清:
DeepSeek 是微調別人做的基本模型。
比如臉書 meta 花數千萬美金或上億美金做出模型 llama.
而 DeepSeek 花5、600萬美金做的是拿基本模型作微調。
台灣也花了大約100萬台幣(猜的)微調成taide 模型釋出.
某美國大學花279美金推出一個不錯的微調模型,sky .
還要說的,千萬不要這麼瞧不起微調啊!
問問中央大學的蔡老師就知道。
———————————————
第二部分才是 DeepSeek的省錢:
首先,他做模型訓練時有挑過一個步驟SFT),所以比較省錢;基本上他在乎的是推理能力、所以跳過 SFT, 所以對話能力可能不會太強(?可能啦、自己去測);
第二個步驟是因為他把模型”壓縮”(知識蒸餾應該也是一種壓縮法),
我們老百姓在用的時候因為用蒸餾模型的話,會因為模型小、大家用的時候就又快又便宜。不要以為只有訓練貴,其實營運時很多人用,費用也是驚人。
如果 DeepSeek 這次真的讓世人接受,那麼可能是中國在GPU 受限(雖然 DeepSeek可能也有50000張GPU)後找到一種定位。
當然我們台灣應該也看見我們也是有可能發展模型的可能!
我就躍躍欲試~
———————————————
———————————————
以下偏技術解說:
1. 要從基本模型(比較像背書、像鸚鵡一直講話,而不太懂對話),到我們熟悉的ChatGPT還要做一種指示訓練,指示訓練就是先教模型不要只會背書、要學會對話(第一個微調出現了,叫 SFT), 另一個是學會不要用語言霸凌別人、要說好話(RLHF):
DeepSeek 他比較不在乎太多對話流暢或者 ai 主權(照論文說的、實際要自己試試),他要挑戰的是最近浪頭上的推論能力的提升,所以他略過花錢的 SFT, 同時把 RLHF 改成真的有用的 RL。然後就推力能力不錯了,又省錢。
(其實後來又加回來 窄化版 SFT, 取名字叫 cool start dataset, 只作一點點訓練、一點點資料,偏邏輯、推論格式的訓練,所以很省錢)
這樣子就大功告成、訓練好了。
訓練好了但是我們在問他的時候,因為模型大,也是浪費時間、算力、金錢,所以他就把原來做好的模型用蒸餾法縮小。
這篇論文,算是簡單易懂,
根據政大蔡炎龍教授的指示,大家可以挑戰看看,不要網路上亂聽。
(其實論文裡有很多還要討論的事情,但是我猜想 DeepSeek 團隊微調能力與理論觀念很好、都能避開點點點…)
蒸餾法很有趣,李宏毅老師的 yt 影片有教,可能是2018、19 的課程、大概是深度學習的下一步的課程。
回文補充:
知識蒸餾技術很普遍,
但知識蒸餾多少會損及準確率,
要看 OpenAI 自己的斟酌。
OpenAI 也是有一些便宜的模型在賣 api, 怎麼做的,我是沒研究,但是大家看 OpenAI 總是看最強大的。
我們也總是覺得高智慧的回應是真理。
而 DS 是挑戰者、他猛攻推理能力,這是近期被指出通往 AGI 的可能技術,
DS 先準備好一個基本模型,是一個小參數量的基本模型,所以已經有語言能力,
然後他從大的 DS 模型自動產生有推理步驟的資料(人工篩選高品質資料),
把有語言能力的小模型去學習 「大模型的推理問題的輸入輸出的資料」,然後小模型就有了推論能力。會不會學了推論能力損及語言能力,這個就要多一些實作累積經驗。
所以猛攻推理能力、能夠有所幫助,這樣前提下,是不是語言能力下降可能他不算在乎,他也可能就比較不看鄉民的測試或唐鳳的報告了。
其他補充:
DS 的 RL-only 與 蒸餾的資料都是從大模型產生,不需要人提供。
當然資料的源頭總是已知答案的知識…這個就不多說了。
以上是論文寫的,其他部分會不會加入中國習慣的小動作,我是不知道。
--
拿誰的做fine tune啊
Taide 100萬?也太瞧不起政府花錢的能力
推
問題是 他可能拿o1 API來蒸餾671B
先不說openAI自己也是劣跡斑斑
拿商業API來做模型商業競爭 是不好看
準確率大概綠霉100倍吧
44
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據比較好奇這段: 儘管蒸餾是AI業界常見做法,但DeepSeek若利用蒸餾技術來打造自家模型,並與OpenAI競 爭,將違反OpenAI服務條款,因此產生疑慮。 OpenAI婉拒進一步說明或提供證據細節。根據該公司的服務條款,用戶不得「複製」任何 OpenAI的服務,或是「利用輸出結果,來開發與OpenAI競爭的模型」。 各個ai 大語言模型不是都會互相參照比較和訓練嗎? 我以為這是業界常識…![Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據 Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據](https://i.imgur.com/9N2QFY1b.png)
29
Re: [討論] OpenAI GPT o1模型OpenAI 最近推出了 GPT-o1,但很多人可能還沒意識到這件事的嚴重性。事實上,OpenAI 已經找到了一條通往 AGI(通用人工智慧)的階梯!這個新模型的關鍵在於,它已經整合了 ToT(思維樹)和 RL(強化學習),在大型語言模型(LLM)領域達到了類似 AlphaGo Zer o 的水準。 很多人以為 LLM 就是個「刷題機器」,記住了大量的資料,所以我們在人類記憶力上輸了![Re: [討論] OpenAI GPT o1模型 Re: [討論] OpenAI GPT o1模型](https://i.ytimg.com/vi/eaAonE58sLU/sddefault.jpg)
23
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據各家互相參考, 指的是訓練方法還有訓練的文本挑選, 蒸餾不太一樣 AI = 模型的程式碼+訓練 能開源的部分只有程式碼, 訓練是看各自調教 模型的能力夠, 差不多的調教方式就會得到差不多的結果 訓練方法更好, 或是文本品質越高、越多樣、量越多, 模型就越強![Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據 Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據](https://i.imgur.com/ey5mX61b.png)
10
Re: [問卦] DeepSeek成本這麽低的原因是啥?目前的推測應該是跳過了訓練模型的部分 也就是說不是從0開始構築AI模型,而是用成熟的AI模型來訓練,避免掉很多無謂的試錯 或空轉,也就是之前新聞在說的「蒸餾技術」 AI 系統中的 「蒸餾技術」(Knowledge Distillation,知識蒸餾),是一種 模型壓縮 (Model Compression) 方法,主要用來讓較小的模型學習較大模型的知識,同時保持高8
Re: [新聞]不,你無法用 600 萬美元複製一個 DeepSee呃,這新聞是哪個平行時空新聞,當前一堆美國大學實驗室都已經成功用其他小型模型像ll ama或Qwen 復刻R1實驗了,而且也事實證明模型只要有辦法再訓練的時候盡可能要求模型更 長更多輪的思考時間那就必然會讓模型依據上下文湧現出推理能力。無論模型大小或是否用 deepseek的模型架構。 一堆知名的框架也開始嘗試復刻開源版的R1 Code,我覺得R1幾個比較可行的思路就是改用6
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據這段一定很多人沒看懂。 正確的說法是,蒸餾可以讓較小的模型(學生)在特定任務上得到比原本的小模型更好, 近似於大模型(教師)的結果。 近似,就不可能比教師模型更好,只會更差。另外由於OpenAI沒有開源,所以這種叫做 黑箱蒸餾。如果可以蒸餾把模型變小可以維持原來的品質,那就一直蒸餾一直蒸餾蒸餾![Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據 Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據](https://i.imgur.com/uznnxpcb.jpeg)
1
[問卦] DeepSeek 就只是仿造ChatGPT 還吹成這樣剛看了DeepSeek R1原始文件 Guo, D., Yang, D., Zhang, H., Song, J., Zhang, R., Xu, R., ... & He, Y. (2025). DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. arXiv preprint arXiv:2501.12948. 看完結論就是![[問卦] DeepSeek 就只是仿造ChatGPT 還吹成這樣 [問卦] DeepSeek 就只是仿造ChatGPT 還吹成這樣](https://i.imgur.com/jY9j0u3b.jpg)
4
Re: [問卦] DeepSeek成本這麽低的原因是啥?Hi 可否問一下比較不專業的問題 1. 大致照你這邊提到的部份 那麼Deepseek 主要省訓練成本的部份 主要是跳過SFT(或著也許 還有其它步驟)的這個作法 而不是像一些報導說的 直接"蒸餾"ChatGPT"(直接用ChatGPT的問答訓練一個較小模型)X
Re: [黑特] 有一說一 拿政治歷史問題去問ai的都是87?這邊應該要說的比較清楚的是模型的背後其實就是統計建模的概念,不管是LLM或vLLM都是 。像LLM越是沒有信心的知識在取樣下一個Token時越難取樣出事實,所以模型其實是很好控 制的,越是複雜或是有爭議的事件模型除非人工強化不然他就越容易產生幻覺(Hallucinat ion)。所以拿某些歷史尤其是冷門的歷史事件或政治人物他越不容易回答正確。 不過模型也需要為人服務,所以當初不管OpenAI或是DeepSeek 再訓練時才會引入強化學習
Re: [閒聊] Deepseek的角色扮演Deepseek目前是有同時釋出開源模型(權重、Code、訓練模型的方法報告都開源)的,走跟 llama一樣的路線,所以理論上只要GPU卡夠你就可以建一個完全一樣的環境包含重新微調模 型讓DeepSeek 做瑟瑟的事情跟串接對話還有Agent去執行任務。 目前初步測試繁中能力真的屌打一堆拿喇嘛微調的台灣llama模型,重點是MoE的架構可以很 省GPU(如果是llama同精度需要32張H100卡才能佈起來)。其實這次比較新釋出的是他的R1
爆
[問卦] 現在的HR都愛問一些奇怪問題嗎![[問卦] 現在的HR都愛問一些奇怪問題嗎 [問卦] 現在的HR都愛問一些奇怪問題嗎](https://i.urusai.cc/QtYfe.png)
爆
[問卦] 11/4離職 11/26出包,公司叫離職的負責?![[問卦] 11/4離職 11/26出包,公司叫離職的負責? [問卦] 11/4離職 11/26出包,公司叫離職的負責?](https://img.youtube.com/vi/uGOWqxN_avw/mqdefault.jpg)
爆
Re: [問卦] 11/4離職 11/26出包,公司叫離職的負責?![Re: [問卦] 11/4離職 11/26出包,公司叫離職的負責? Re: [問卦] 11/4離職 11/26出包,公司叫離職的負責?](https://i.imgur.com/AN84rLmb.jpeg)
85
[問卦] 脆女:第一胎沒300萬 別生小孩了!![[問卦] 脆女:第一胎沒300萬 別生小孩了! [問卦] 脆女:第一胎沒300萬 別生小孩了!](https://i.mopix.cc/NRU3Hs.jpg)
78
[問卦] 去銀行一次提領一百![[問卦] 去銀行一次提領一百 [問卦] 去銀行一次提領一百](https://i.imgur.com/eiBR27jb.jpeg)
85
[問卦] 真的有記者去含檢察官的屌換情報?爆
Re: [新聞] 不只一人受害!賴瑞隆兒涉「校園霸凌3同80
[問卦] 吳郭魚片寫台灣鯛魚片484詐騙?![[問卦] 吳郭魚片寫台灣鯛魚片484詐騙? [問卦] 吳郭魚片寫台灣鯛魚片484詐騙?](https://img.youtube.com/vi/dtuSqd-TcxU/mqdefault.jpg)
79
[問卦] 美財長貝森特:美是中國盟友也是台灣盟友![[問卦] 美財長貝森特:美是中國盟友也是台灣盟友 [問卦] 美財長貝森特:美是中國盟友也是台灣盟友](https://i.imgur.com/W29EoF5b.png)
68
[問卦] 霸凌同學 有好聽說法嗎67
[問卦] 現在可以在總統府前罵總統嗎54
[問卦] 什麼時候要禁telegram ?![[問卦] 什麼時候要禁telegram ? [問卦] 什麼時候要禁telegram ?](https://i.meee.com.tw/yB4xUUD.jpg)
54
[問卦] 台女脆文:瑞幸咖啡穩死的!![[問卦] 台女脆文:瑞幸咖啡穩死的! [問卦] 台女脆文:瑞幸咖啡穩死的!](https://i.mopix.cc/NRU3Hs.jpg)
48
[問卦] 蝙蝠俠幹嘛不把小丑做掉![[問卦] 蝙蝠俠幹嘛不把小丑做掉 [問卦] 蝙蝠俠幹嘛不把小丑做掉](https://img.youtube.com/vi/cm3Chp2u7HY/mqdefault.jpg)
44
[問卦] 8歲就嗆要打死人,長大能做什麼?![[問卦] 8歲就嗆要打死人,長大能做什麼? [問卦] 8歲就嗆要打死人,長大能做什麼?](https://i.imgur.com/eVKUCT4b.jpeg)
31
[問卦] 全聯鯛魚搞到要國賠了![[問卦] 全聯鯛魚搞到要國賠了 [問卦] 全聯鯛魚搞到要國賠了](https://i.imgur.com/flM1A6bb.png)
38
[問卦] 燒臘便當這樣多少合理?![[問卦] 燒臘便當這樣多少合理? [問卦] 燒臘便當這樣多少合理?](https://i.imgur.com/FLuRAsfb.jpeg)
32
Re: [新聞] 誤驗「全聯毒鯛魚排」出包 29歲離職女助![Re: [新聞] 誤驗「全聯毒鯛魚排」出包 29歲離職女助 Re: [新聞] 誤驗「全聯毒鯛魚排」出包 29歲離職女助](https://attach.setn.com/newsimages/2025/12/02/5367966-PH.jpg)
爆
[問卦] 台禁小紅書上微博熱搜還被中國網友群嘲![[問卦] 台禁小紅書上微博熱搜還被中國網友群嘲 [問卦] 台禁小紅書上微博熱搜還被中國網友群嘲](https://files.catbox.moe/f0njq9.png)
35
[問卦] 為何08年大家22k時沒人躺平 現在卻一堆?![[問卦] 為何08年大家22k時沒人躺平 現在卻一堆? [問卦] 為何08年大家22k時沒人躺平 現在卻一堆?](https://i.mopix.cc/P0cKXZ.jpg)
爆
[問卦] 只有我覺得台灣這幾年越來越像對岸?![[問卦] 只有我覺得台灣這幾年越來越像對岸? [問卦] 只有我覺得台灣這幾年越來越像對岸?](https://i.imgur.com/mHqBx4fb.jpeg)
36
[問卦] 經過鯛魚事件後 你還相信檢驗數據嗎?![[問卦] 經過鯛魚事件後 你還相信檢驗數據嗎? [問卦] 經過鯛魚事件後 你還相信檢驗數據嗎?](https://i.mopix.cc/wyBvTF.jpg)
64
[問卦] 台灣人有想過有天自己也要翻牆嗎?![[問卦] 台灣人有想過有天自己也要翻牆嗎? [問卦] 台灣人有想過有天自己也要翻牆嗎?](https://i.imgur.com/uwN6ddib.jpeg)
33
[問卦] 德川家絕嗣!少子化太嚴重了吧?![[問卦] 德川家絕嗣!少子化太嚴重了吧? [問卦] 德川家絕嗣!少子化太嚴重了吧?](https://img.youtube.com/vi/NXxFbNDWjK4/mqdefault.jpg)
爆
[問卦] 禁小紅書用意到底是什麼?![[問卦] 禁小紅書用意到底是什麼? [問卦] 禁小紅書用意到底是什麼?](https://i.mopix.cc/ShazEx.jpg)
30
[問卦] Telegram才更該禁吧32
[問卦] 八歲就開扁同學以後能成大事嗎29
Re: [新聞] 數發部列「詐騙媒介」排行榜 小紅書沒入![Re: [新聞] 數發部列「詐騙媒介」排行榜 小紅書沒入 Re: [新聞] 數發部列「詐騙媒介」排行榜 小紅書沒入](https://i.imgur.com/om7BaSeb.jpeg)
30
[問卦] 檢驗結果為什麼是助理扛?![[問卦] 檢驗結果為什麼是助理扛? [問卦] 檢驗結果為什麼是助理扛?](https://img.youtube.com/vi/ftuuVwvhvKM/mqdefault.jpg)
27
[問卦] 驚!9年來 年輕人自殺成長三倍 代表什麼![[問卦] 驚!9年來 年輕人自殺成長三倍 代表什麼 [問卦] 驚!9年來 年輕人自殺成長三倍 代表什麼](https://i.imgur.com/I9muINnb.jpeg)
![[問卦] 自由時報笑了:Deepseek準確度超低 [問卦] 自由時報笑了:Deepseek準確度超低](https://i.imgur.com/r066Tiwb.jpeg)
![Re: [問卦] 自由時報笑了:Deepseek準確度超低 Re: [問卦] 自由時報笑了:Deepseek準確度超低](https://i.imgur.com/Pa6yicRb.jpeg)