[問卦] DeepSeek是不是有用台灣資料去訓練~?
奇怪
剛有人叫DS模仿八卦版鄉民
竟然可以
怎麼會這樣
那他不就有抓ptt的資料去訓練~= =
那台灣其他中文資料
難道也難逃其魔爪?
對了,也有人說會不會秘密在用中文訓練~~
使得效率更高?
有相關八卦?
--
※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.192.221.179 (臺灣)
※ PTT 網址
→
八卦罵過習近平的一定都被記錄下來了
→
這樣應該會有抗中保台的基因存在
推
用ptt 創世神開發的bing抓資料
推
發文有自稱阿肥的通通都是紅衛兵
推
資料庫有ptt
推
八卦網軍有幫忙開發
推
習胖子要長命百歲阿
推
恩ptt紀錄又詳細
→
用微博的小粉紅口氣換個立場就好
→
到處都有搬運工 資料不知道收集幾年惹
96
[問卦] 脆:DeepSeek有一半經費用在過濾敏感言論一早起來看到脆上出現一篇說 DeepSeek訓練的經費有一半用在過濾與台灣相關的敏感資料與言論 有相關的八卦嗎????? 脆上面是不是一堆人急了![[問卦] 脆:DeepSeek有一半經費用在過濾敏感言論 [問卦] 脆:DeepSeek有一半經費用在過濾敏感言論](https://i.imgur.com/u11I9iBb.png)
14
Re: [閒聊] 文心一言AI繪圖(慎入)文心一言實力不如ChatGPT是理所當然的,微軟投資幾百億美元並且用微軟的雲端訓練整個網 路資料兩年了,到了去年底才終於開花結果 目前這種LLM模型,最重要的就是 資料 算力 和算法,其中基礎的資料是非常重要的,Chat GPT在建立模型的過程跟一般的Ai一樣要機器學習建立模型,而ChatGPT的基礎原理就是由上 一個字生成下一個字,週而復始,其中在訓練的過程還會經過人工挑選優質回答和一些和添![Re: [閒聊] 文心一言AI繪圖(慎入) Re: [閒聊] 文心一言AI繪圖(慎入)](https://i.imgur.com/ST90nzyb.jpg)
6
Re: [請益] Deepseek v3 對台積電有影響嗎我覺得評比指標什麼都是後話 使用體驗太差 你看看這樣怎麼稱霸世界呢? 你的進線參數與資料量就比別人少了,![Re: [請益] Deepseek v3 對台積電有影響嗎 Re: [請益] Deepseek v3 對台積電有影響嗎](https://i.meee.com.tw/CafPIov.png)
X
Re: [新聞] DeepSeek爆紅引熱議 傳偷用5萬顆輝達H10"世界一開源 中國就領先" 這是一句最近流傳的諺語~~~ 之前中國嘴砲7奈米量產 結果一開蓋 發現是TSMC like的製程 多重曝光 現在要驗證 deepseek是否真的是便宜成本就可以訓練好 只要請deepseek 公佈模型架構 不要提供完整訓練好的模型6
Re: [爆卦] 中央研究院詞庫小組大型語言模型這個語言模型的最大資料來源都是源自於一個世界開放的語料資料庫 其中中文占的比例很少 中文當中繁體中文的資料更少 因此訓練起來 中文其實都不像樣 同時間訓練台灣的內容資料又更少之又少![Re: [爆卦] 中央研究院詞庫小組大型語言模型 Re: [爆卦] 中央研究院詞庫小組大型語言模型](https://i.imgur.com/zSPlmC5b.jpg)
3
[問卦] 餵八卦版資料給AI機器人會怎樣?一家公關公司想要訓練自己的客服機器人 想到用openAI的訓練模型 如果給PTT八卦版的資料當糧食 訓練出來 會變成怎樣5
Re: [問卦] AI領域中的LLM會讓英語系國家更具優勢?其實光是中文資料不斷地消失這件事情 用中文資料訓練的LLM效果自然不會太好 中文的網路資料這幾年不斷消失 原因無他 很多中文圈的網路公司沒錢收掉 這些資料就可能從世界上消失 等於中文的訓練資料無法累積 資料不夠 模型再大也沒用1
Re: [新聞] ChatGPT不能用了!OpenAI宣布「斷供中國支那AI贏不了美國的真正原因其實不是買不到輝達最先進GPU 真正原因是訓練資料的限制 因為就算AI硬體算力再強 如果你餵給AI的資料是垃圾 那麼垃圾進垃圾出3
Re: [請益] Deepseek v3 對台積電有影響嗎的確會讓人好奇DeepSeek-V3的訓練方式, 但成本降低如此之多,另外一個思考點,是不是除了科技巨頭外, 更多公司願意投入資本支出來建立自己的模型? 而且隨著技術發展,模型建立的成本一定會快速下降。 DeepSeek-V3比較的 Claude.ai/Qwen2.5/LLaMA3.1![Re: [請益] Deepseek v3 對台積電有影響嗎 Re: [請益] Deepseek v3 對台積電有影響嗎](https://i.imgur.com/ZGzxwgNb.jpg)
1
Re: [新聞] 成本低廉 中國AI初創DeepSeek震撼矽谷前文恕刪 : 據報導,DeepSeek僅用2048片H800顯示卡 (GPU)、耗時兩個月,就訓練出了一個6710億參 : 數的DeepSeek-V3。相較於Meta訓練參數量4050億的Llama 3,用了1萬6384片更強的H100 : 顯示卡,花了54天。DeepSeek的訓練效率提升了11倍。 這比法很不公平