PTT推薦

Re: [閒聊] Deepseek的角色扮演

看板C_Chat標題Re: [閒聊] Deepseek的角色扮演作者
sxy67230
(charlesgg)
時間推噓 推:0 噓:0 →:0

※ 引述 《e04su3no》 之銘言:
: → pobby2266: 昨天無聊也是讓他模擬魯迅和尼采對話 01/28 03:19: 推 pHyrz: 可以串連兩邊讓他們吵架ㄇ 01/28 03:22: 推 gm79227922: 可以瑟瑟嗎 01/28 05:40

Deepseek目前是有同時釋出開源模型(權重、Code、訓練模型的方法報告都開源)的,走跟llama一樣的路線,所以理論上只要GPU卡夠你就可以建一個完全一樣的環境包含重新微調模型讓DeepSeek 做瑟瑟的事情跟串接對話還有Agent去執行任務。

目前初步測試繁中能力真的屌打一堆拿喇嘛微調的台灣llama模型,重點是MoE的架構可以很省GPU(如果是llama同精度需要32張H100卡才能佈起來)。其實這次比較新釋出的是他的R1數學模型,主打純用RL左右互搏不需要像OpenAI的PPO一樣需要先經過大量監督微調(就是人類構造數據)的步驟就可以讓模型自主學會數學分解思考。

然後比較搞笑的是本來自稱自己開源的OpenAI現在早就把自己的模型全部close,然後首個開源深度思考模型竟然發生在最封閉的左岸。


--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.8.79 (臺灣)
PTT 網址