Re: [新聞] Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高
目前就在旁邊吃瓜觀望@@ 成本這種本就是用開源後的可以拿已有的模型去當輔助下降成本
最常見作法就是拿gpt-4o當judge或者當數據產生器 去精煉數據集 如果再沒有gpt-4o
情況下 很多高質量資料去產生就花很錢 最經點例子就是LLaVa 一個博士班學生 用gpt-4o去產生高質量多模態數158k 極小量數據集 用8xA100 1天時間 就幹爆之前所有
多模態大模型 能打贏saleforce的一間大公司堆出來的多模態BLIP-2模型
這傢伙精髓站就是在gpt-4模型巨人的肩膀上
資料的quality會影響大模型 而資料可以透過開源高質量模型去萃取
如果再套用COT 這些都可以繼續進化 paper有些細節像是數據集這類如何精煉
反而可能會是一個重要一環 但大家都會藏這類細節 @@/
2025現在大家都殺到LLM Agent去了 LLM刷模型任務分數熱潮有點下降
大部分都跑去搞LLM決策部分 和COT (思考鏈) 多步驟分析任務
像是waymo自駕端對端的決策都搞了一個EMMA 用Gemini 去往上蓋
(這時候自駕公司有自己的很強的LLM就很有用了 隨手不負責預測亞麻zoox會拿自家
LLM或anthropic來搞end-2-end多模態)
然後LLM Agent如果要放在機器人和自駕
一定得on-device 因為雲端延遲太慢 風險高 所以1B~4B這陣子的on-device模型
能力也在不斷突破 所以on-device LLM不太會在是AI-PC 除非是屬於私密資料等應用場景而edge/on-devcie AI 可能突破點會在機器人
自駕的趨勢之後會跟LLM走上同陣線 在某個時間點 等閉源LLM開始時 就是差不多AI模型的盡頭開始產業化 也許端對端LLM決策 可以強化視覺上標籤數據不足 (不確定這點
但直覺上認為 思考練LLM Agent可以降低場景車用數據量..QQ 基於模型泛化能力)
這會給其他車廠追上特斯拉的機會 特斯拉自身的LLM可來自grok 而3D基礎模型
foundation model 像是李飛飛的空間模型 有一定機會能幫助自駕 可以直接融合LLM
產生端對端多模態 而李飛飛又跟狗家走很近 所以想單賭個股 可以賭賭看狗家
--
順帶一提 LLM Agent在寫code部分越來越噁心了 強烈建議不要去當碼農..QQ
機器人題材就是跟LLM Agent有關 只要注意誰能做LLM Agent軟硬體部分就好
狗家的現在佈局就是拿Gemini去瘋狂蓋各種下游任務: 自駕 AR眼鏡 搜尋 多模態
語音 翻譯 Youtube 廣告 消費 地圖 商家產品 這些多樣性因為自家公司的資料特殊性
現在有點佔上風
股點就是買Big 7 + 台積 @@/
※ 引述《iaminnocent (人生無常)》之銘言:
: 剛剛看FB,發現有個中國的作家對於Deepseek的作文水平感到驚訝,用了相同問題,以王家
: 衛的電影風格去撰寫標題為人生何處不相逢的散文,來分別問CHATGPT-O1跟Deepseek-R1: ChatGPT-O1:
: https://i.imgur.com/T2jN9hZ.jpeg
![圖 Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高](https://i.imgur.com/T2jN9hZ.jpeg?e=1738232740&s=q3JZS4iIawiQVhM6Y3NuMw)
: https://i.imgur.com/IitIbR0.jpeg
![圖 Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高](https://i.imgur.com/IitIbR0.jpeg?e=1738224436&s=1LxsaqOiVlxfbxE49sITCA)
: 不知道在說甚麼
: ChatGPT 在最後有點出散文標題,內容也比較有切合標題
: 這應該可以當作兩者的能力小比拼吧?
: --------
: 補:
: 我也有用4O用相同問題問過,我覺得寫得比O1跟R1還好
: https://i.imgur.com/7DN4Dz9.jpeg
![圖 Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高](https://i.imgur.com/7DN4Dz9.jpeg?e=1738216387&s=BIVlXd-3oMKVZYjplVVW-w)
: --
: ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 125.228.63.38 (臺灣)
: ※ 文章網址: https://www.ptt.cc/Stock/E.2dRqiuRaRdas
: 推 s213092921 : 重點是Deepseek背後的成本只有ChatGPT的20分之1 01/26 10:34: → iaminnocent : 確實,訓練成本這件事情蠻令人訝異的,OpenAi也宣 01/26 10:41: → iaminnocent : 布O3-mini將免費了 01/26 10:41: → TaiwanUp : 如果不知道是台詞 R1有故事感但無邏輯 結尾有蛇年感 01/26 10:44: 推 breathair : 只代表對於演算法大科技也要花大錢挖人 01/26 10:45: → breathair : 來搞了,算力的投資不會減少,不然等你 01/26 10:45: → breathair : 演算法追上,算力又落後了怎辦? 01/26 10:45: 推 strlen : r1實際用遠不如抬面上的啦 只有評測嚇人 無庸質疑 01/26 10:55: → TaiwanUp : O1比較像沒有人生經驗學生寫 可以再tune一段小故事 01/26 10:55: → strlen : 但deepseek重點在它開源 還公開論文 好耶 作功德 誰 01/26 10:55: → strlen : 不愛?載回來用免錢 改免錢的 中國人要作功德當然好 01/26 10:56: → TaiwanUp : R1就每段都小故事 恐怕就是直接從劇本拼湊出來的 01/26 10:56: 推 mamorui : pretrain的成本占總成本7-9成,R1是只管posttrain 01/26 10:58: → mamorui : ,R1高成本會嚇死人。 01/26 10:58: 推 mamorui : 然後是DeepSeek-V3宣稱557萬,但strawberry幾個r也 01/26 11:03: → mamorui : 會錯的跟其他一模一樣, 如果pretrain全部自己的資 01/26 11:03: → mamorui : 料怎麼會錯 01/26 11:03: 推 s213092921 : http://i.imgur.com/NWWWmUD.jpg 01/26 11:04
![圖 Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高](https://i.imgur.com/NWWWmUD.jpg?e=1738275257&s=ufAN01rr5jPQA-uC9ckGmA)
![圖 Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高](https://i.imgur.com/c9C1WzU.jpg?e=1738269384&s=JFHLpreskOHArWxWNceZ7A)
![圖 Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高](https://i.imgur.com/7DN4Dz9.jpeg?e=1738216387&s=BIVlXd-3oMKVZYjplVVW-w)
: → iaminnocent : 得到結論,王家衛的文字用理論是不行的XD要用感情 01/26 12:04: 推 mamorui : 如果是AGI,就不會有能力差異,表現如何是穩定的, 01/26 12:05: → mamorui : 雖然還沒有AGI。 現在看到LLM會出並存的系列,就當 01/26 12:05: → mamorui : 做遊戲角色各種族差異,要想好先用誰再用誰,AI的 01/26 12:05: → mamorui : 思考跟記憶是仿人腦(非電腦),所以可以交錯問。 01/26 12:05: 推 mamorui : 像r1就是一定要推理,關掉才能切到V3 01/26 12:06
--
99nvdl
Btw,GooG tsm,which better?
GG VS. 積積
感覺都可以賭啊 狗家可以問TQQQ王 TSM還得看川普的心情吧@@?
※ 編輯: LDPC (76.21.72.78 美國), 01/26/2025 13:36:02請問現在有甚麼好用的寫code用的LLM agent呀
現在Big 7中幾個增加一堆資本支出建數據中心
還沒找到具體的應用回收成本的方法
就面臨超便宜還開源的模型競爭
這消息很難解讀成繼續投資Big 7的利好吧
QQ BIG5會用裁員降數據中心成本(扣掉老黃果家) 所以帳面上還是很好看 據說接下來一個月內 麻家軟家會開始砍人 阿祖是用intense of year 來捲走人力
1128寫程式不再是金飯碗 美國軟體工程師職缺5年腰斬
這篇講的最專業 給推!! 同樣的問題問chatgpt跟gemin
i雖然答案整體差異不大 但格式跟思路並不同 問deeps
eek有種熟悉感 特別像chatgpt 或許真的被拿來當教練
FANNG+,TSM無腦多
Big7個屁,誰要買垃圾貧果
Fanng gogogo
既然AIPC沒有市場 蘋果前途黯淡可以空了
推 專業
碼農失業潮,幹
也要記得買HBM, 現代美光 三星?
個人的看法 雖然消費者端是一部份目標但現階段對巨
頭們來說AI是因為能增加”生產力/人”才瘋狂投資
投入AI基建生產力++人力需求—
巨頭並沒有沒回收成本 是已經在回收成本
巨頭內部已經在用AI降低自己的生產成本
tsm只要來個大地震就崩惹=.=
這兩三年巨頭們裁員的消息不斷 但營收還是持續向上
那不就也證明投入AI基建生產力已經在增加了嗎
窩長官們前幾天還說今年只要壓雞雞就能躺著賺 什麼
都不用做
倒是NV這幾年都在擴張台灣辦公室一直招人 真的猛
ps 他們是反指標喔
軟體開發的開源生態剛好給了AI大量的資料訓練 讓碼
農AI能進步快速解答
*多打了解答兩個字
營收往上是因為各種漲價好嗎zzzz
QQ 沒錯 LDPC大最可靠了
meta和巨頭其實冗員很多,mets快4萬人年薪超過1200
萬,裁個2萬人,一年就省快3000億
應該用力裁
看來看去,這篇最專業 !!
廢狗快噴
才兩年 就可以拿設計圖直接產code 再兩年 我看整個
系統講幾句話就直接生出來 設計順便也整合 還可以讓
你選風格...碼農末日不遠矣.......
資深碼農實際coding時間可能沒有30%
不用這麼緊張
Google理論上資料最多 但基本的翻譯現在還是明顯比G
PT差,機翻的感覺還是很明顯
AAPL營收已經漲不動了 eps卡在6上下三年了
碼農一定還是需要 但門檻越來越高 缺越來越少 厲害
的一個可以抵十個用不誇張
Apple ai整個落隊還看不到起色,只能吃老本了
![圖 Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高](https://i.imgur.com/vA7ifFR.jpeg?e=1738255358&s=kYteMdzyXVwvOwYEVLXLkw)
![圖 Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高](https://i.imgur.com/RFSG3MK.jpeg?e=1738231772&s=RPXCSknJbdKBdFnEGTB2GA)
QQQ 七巨頭比重高和有機會包到AI新創IPO 有料嗎
Apple要做到軟智硬整合 就看怎麼取捨了
質量
很明顯你是馬農等級 也非半導體專業
比較好奇為什麼Google 要特別叫狗家是有什麼原因嗎
?
GG狗家都是obov 的創意
翻譯看領域吧 瑟瑟翻譯 Gemini exp跟GPT4o不相上下
前提是你要用CoT prompt
內容很專業!結論很粗爆!推
99 ASIC
算法會演進 但是無法帶動整個景氣循環 只能說到這
更無法改變供需之間的關係
人人都是碼農的概念
因為估狗
我現在最大疑問是DeepSeek卻無法整合V3跟Search,
真的超奇怪的,理論上Search的資料跟GPT無關,他們
可以輕鬆突破才對。
阿婆=Apple 這個更有創意更好笑
DS既然找到後訓練突破,沒能力整合Search進V3?
AGI的路終究要整合,DeepSeek下一步該推出整合了才
對
本地端開源搜尋引擎: Meilisearch, Woosh
這個解釋很好懂
Typesense, Elasticsearch 可以整合看看
99MU
推
現在寫和 review 團隊的code變的相當輕鬆
省下的時間 能做不少其他的事情
55
剛剛看FB,發現有個中國的作家對於Deepseek的作文水平感到驚訝,用了相同問題,以王家 衛的電影風格去撰寫標題為人生何處不相逢的散文,來分別問CHATGPT-O1跟Deepseek-R1 ChatGPT-O1: Deepseek-R1:17
不用恐慌,Meta繼Stargate之後,也宣稱要投65B計畫搞大基建。 現在是有AGI了嗎?最快也要看今年底 假設Deepseek R1相當於OpenAI O1好了 成本只有1/20 那為何不出一個成本1/24
OpenAI又推出了最新的O3-mini跟O3-mini-high可以使用,原本的這個問題我又來問了一遍 ,想說也貼上來給大家品鑑一下O3-mini 究竟有沒有比Deepseek-R1強 ChatGPT-O3-mini29
不知道有沒有鄉民試過 Deepseek R1 單機版 其實過程很簡單,安裝 LM studio 就可以去撈 model 來測了。 甚至也有些標榜已經除去審查的 model 先講結論,我覺得單機 LLM 可能會更多人有興趣能做到怎樣。 雖然功能不如訂閱聊天/API,
52
Re: [討論] 中研院繁中LLM被爆直接拿對岸的來套小弟待的公司,非學術單位, 可能是台灣硬體計算資源稍微豐富的公司。 公司投入在買GPU 應該近億了。 自己也研究了幾個月 fine-tune 方法。 不過,還是沒足夠能力與資源訓練正常的LLM。29
Re: [討論] OpenAI GPT o1模型OpenAI 最近推出了 GPT-o1,但很多人可能還沒意識到這件事的嚴重性。事實上,OpenAI 已經找到了一條通往 AGI(通用人工智慧)的階梯!這個新模型的關鍵在於,它已經整合了 ToT(思維樹)和 RL(強化學習),在大型語言模型(LLM)領域達到了類似 AlphaGo Zer o 的水準。 很多人以為 LLM 就是個「刷題機器」,記住了大量的資料,所以我們在人類記憶力上輸了X
Re: [爆卦] 中央研究院詞庫小組大型語言模型對於LLM只有這一點認知程度的話,最好不要就這樣出來帶風向會比較好,不然先去 跟陽明交大校長先去旁邊先學習一下什麼叫做LLM,不同LLM之間又有什麼差異。 第一個錯誤的認知是認為LLM就應該要提供正確的答案,事實上LLM是一個機率模型, 它所做的事情是基於模型的權重預測下一個token(詞塊)最高的機率是那個,它不是資 料庫,所以你不能因為它答的一個答案不是你所想的就是說這個模型如何如何。10
Re: [問卦] 美股大跌 股版怎麼無聲無息大概就是,如果中東全面戰爭,油價會漲 油價漲通膨繼續,沒得降息。 川普如果上,通膨也會繼續,因為他是走貿易孤立主義。 製造要搬回美國,成本上升。 AI慢慢退潮中,理想很豐滿,現實很骨感,infra貴,訂閱現金流沒有多少長進。10
Re: [討論] OpenAI GPT o1模型阿肥外商碼農阿肥啦! 目前技術太多都說得太雲裡霧裡,但是截至目前為止針對o1其實OpenAI透露出來的技術細 節都不如過往得多,像之前GPT-4跟GPT-3.5過往還有完整的文件跟引用可以窺探,所以就 不做過份的臆測了。 以目前的一些文件上有提到的可以確定這次o1使用了CoT這絕對是一個Agent沒錯(跟過往5
Re: [新聞]剖析中研院大型語言模型事件的衝擊先說結論: 發展本土化,繁體中文LLM模型,然後期待這個模型能讓大家使用,根本是錯誤方向。不知道這些專家學者,是在騙經費,還是還沒想清楚產業到底缺什麼。 --- 如果今天你使用Google搜尋,搜到"台灣是中國的",或任何有政治偏見的相關文章。 你會不會覺得Google很爛?3
Re: [問卦] ChatGpt為什麼開始變笨了?正好半夜看到這篇無聊來回一下 GPT4能力下降大概5月多開始就有人注意到了 但你要怎麼定義能力衰退這件事而且量化他? 於是七月就有一篇論文在討論這件事2
Re: [問卦] AI產生意識並且洗腦控制人類行為怎解?以目前 AI 能做的事情,還很遠 當然不排除未來可以,但是至少是現在不行 現在連 AGI (通用人工智慧) 都很難 目前不管是生圖的 AI 或是大語言模型(LLM)的 AI 本質上都是猜,只是這個猜的過程可以從模型輔助讓猜這件事猜的更準1
Re: [黑特] 誰決定推出的智障機器人?藍 : 後面那些更噁心的我就不貼了 : ----- : Sent from JPTT on my iPhone 這邊說一下目前業界在部署整套LLM服務的工程。- 請容我搬運一篇對岸知乎的文章, 這是一篇非常長的文章,其中大部分片段與本文無直接關聯,而且是2023/02寫的. 我只搬運本串相關的記憶體的部分,還有尾部的結論.且未修飾原文用字 詳細的有興趣請直接去原網址看吧. ChatGPT背後的經濟賬
18
Re: [新聞] 去年12月總薪資平均近6.5萬刷新高 金飯15
[情報] 114年02月17日信用交易統計爆
[標的] 聯發科 空7
[心得] DeepReserch: 市值型 > 高股息10
Re: [請益] 台灣貿易順差超大 但為何台幣貶成這樣?7
[情報] 2032 新鋼 達注意標準 1月自結 0.0012
[情報] 00946 114/03/06 預估除息0.025元26
[情報] 3189景碩 113EPS 0.11(Q4 -0.55) 股利14
Re: [新聞] 首檔 ETF 分割來了!0050將重返發行價 49
[心得] 券商app年度回顧25
[情報] 2942京站 獨董彭振聲 因個人生涯規劃辭任11
[情報] 5864 致和證 113年EPS 1.98 股利 0.4+0.87
[情報] 8028 昇陽半導體1月自結0.431
[情報] 114/02/17 八大公股銀行買賣超排行1
[情報] 0217 上市櫃股票週轉率排行3
Re: [新聞] 川普「對等關稅」預計4月2日上路衝擊歐日1
[情報] 0217 上市櫃外資投信買超金額排行