PTT推薦

[問卦] Deepseek不就是說MoE便宜又好用而已?

看板Gossiping標題[問卦] Deepseek不就是說MoE便宜又好用而已?作者
bluebluelan
(鈴谷のあまあま写生管理)
時間推噓 3 推:3 噓:0 →:12

安安 在AI產業的 MoE也不是什麼太陌生的題材

市面上好幾個MoE模型 加上最近的小模型趨勢



DeepSeek只是證明MoE加小模型 便宜又好用

整體還是在Transformer架構之下搭起來的 運算量還是在那邊


花更少的資源做一樣的事情 不就代表一樣的資源能做更多事?


AI即將更便宜更好用 大家不是應該要更爽才是 都不用工作了

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 73.202.165.104 (美國)
PTT 網址

pooznn 01/28 04:59把它理解成 通往AGI道路上的魔戒 很多人搶

pooznn 01/28 05:00著戴上它

StylishTrade 01/28 05:03他把人類的知識都學會了 ˇ更多資源

StylishTrade 01/28 05:04要學甚麼?

StylishTrade 01/28 05:04除非他能學會人類還不會的事QQ

lovesleep68 01/28 05:35其實現在問題是AGI沒限制好,有可能

lovesleep68 01/28 05:36脫離掌控變成ASI,超人智,所以AI發

lovesleep68 01/28 05:36展,反而是呼籲降低達成AGI的速度

lovesleep68 01/28 05:37AI 叛變!美智能無人機測試為達成任

lovesleep68 01/28 05:37務竟「殺死」操作員

lucifiel1618 01/28 05:50你這種幹話就像說AI不就DNNDNN不就

lucifiel1618 01/28 05:50MLE,一百年前人類就已經會了

semicoma 01/28 07:36對 而且gpt o1可能也是同一套方法 但

semicoma 01/28 07:36openai沒開源 無從證實

lwei781 01/28 08:06騾子