Re: [問卦] deepseek 到底是不是抄的 風向好亂
AI時代,抄沒抄已經不能用過去對軟體的理解來判斷了。
過去的軟體大多是確定性演算法,也就是任何輸入都會經過
相同的規則處理,所有的規則都寫在程式碼裡頭,所以程式
碼就是軟體的一切。
AI時代,很抱歉,程式碼頂多佔50%重要性。另外50%是數據
。基本上AI就是一套數學模型,這個模型有上千億個參數,
程式碼決定模型,也就是神經網路的架構,至於那千億個參
數需要無數的數據去微調,參數沒調好,出來的東西就很垃
圾。
所以說程式碼開源頂多『宣稱』他們研發出高效的架構,但
是這不是一個容易驗證的宣稱,因為從粗調好的模型到可以
上市之間還有無數微調參數的學問,其中就包含用來微調的
數據。參數沒調好的優秀架構可能比完美調校參數的爛架構
表現更差。
大家記得ChatGPT初期一大堆黑他們的新聞嗎?像是雇用第
三世界的廉價勞工去處理數據。因為數據取得、標記,就是
AI最痛苦、最花錢的部分。OpenAI當然知道這點,所以他們
在使用條款裏頭明定禁止用他們的產品去開發競品,畢竟流
血流汗都他們做了,你用個蒸餾法就把他們嘔心瀝血的成果
一鍋端了,你氣不氣?
看起來DeepSeek事件已經上升到國家層級了。OpenAI能用的
手段非常有限,除了封鎖大量使用API輸出結果的帳號,頂
多就是興訟。根據現在的美中關係,中國也不會怕。
事件的結局最有可能的是美國以國家安全為由全國禁用
DeepSeek,DeepSeek會痛失美國市場。不過他們的市佔本來
就從零開始,如果吃下中國市場就賺翻了。
※ 引述《PaulDavis (Paul Davis的歌手差不多)》之銘言:
: ※ 引述《subcrew (Working Below The Hype)》之銘言:
: : 如題
: : Deepseek最近幾天風向一直變
: : 先說成本造假
: : 又說會影響輝達 台積電
: : 現在又說是抄的
: : 到底情況是怎麼樣 風向好亂
: : 有卦嗎
: 現在還在說抄襲,基本上就搞不清楚狀況而已
: Deepseek已經全部開源給你看了,甚至論文跟模型都公開
: 國外沒啥人鳥指控抄襲的OpenAI,就是因為OpenAI根本沒公開過什麼東西
: 想幫忙護航的連找是哪邊抄襲都找不到
: Deepseek開源是影響下面這件事
: ==
: OpenAI 預計,到 2029 年的總支出將超過 2000 億美元,而每年 60% 至 80% 的支出將用於模型的訓練或運行。財務分析顯示,2023 年至 2028 年間,OpenAI 的總虧損(不含股權補償)將達 440 億美元。分析也指出,OpenAI 預計在 2029 年將實現 140 億美元的利潤。
: ==
: 1.OpenAI說做AI很花錢,要支出2000億美金
: 2.現在沒有賺錢要到2029才會賺錢
: 言下之意就是要投資的趕快來
: 現在都還沒2029,就有Deepseek證明不用花2000億美元就能做到差不多的AI了
: 然後Deepseek還已經免費公開出去怎麼做的
: 也就是說可以拿到2000億美元投資的世界線已經終結了
: 大概只剩青鳥蟾蜍覺青這類的在哭喊有抄襲而已,政治入腦連局勢都看不清楚
※ 引述《PaulDavis (Paul Davis的歌手差不多)》之銘言:
: ※ 引述《subcrew (Working Below The Hype)》之銘言:
: : 如題
: : Deepseek最近幾天風向一直變
: : 先說成本造假
: : 又說會影響輝達 台積電
: : 現在又說是抄的
: : 到底情況是怎麼樣 風向好亂
: : 有卦嗎
: 現在還在說抄襲,基本上就搞不清楚狀況而已
: Deepseek已經全部開源給你看了,甚至論文跟模型都公開
: 國外沒啥人鳥指控抄襲的OpenAI,就是因為OpenAI根本沒公開過什麼東西
: 想幫忙護航的連找是哪邊抄襲都找不到
: Deepseek開源是影響下面這件事
: ==
: OpenAI 預計,到 2029 年的總支出將超過 2000 億美元,而每年 60% 至 80% 的支出將用於模型的訓練或運行。財務分析顯示,2023 年至 2028 年間,OpenAI 的總虧損(不含股權補償)將達 440 億美元。分析也指出,OpenAI 預計在 2029 年將實現 140 億美元的利潤。
: ==
: 1.OpenAI說做AI很花錢,要支出2000億美金
: 2.現在沒有賺錢要到2029才會賺錢
: 言下之意就是要投資的趕快來
: 現在都還沒2029,就有Deepseek證明不用花2000億美元就能做到差不多的AI了
: 然後Deepseek還已經免費公開出去怎麼做的
: 也就是說可以拿到2000億美元投資的世界線已經終結了
: 大概只剩青鳥蟾蜍覺青這類的在哭喊有抄襲而已,政治入腦連局勢都看不清楚
--
原來如此
開源東西就這樣阿,讓各種研究的人一直改
不同編碼出來,這樣說後面都叫抄襲對吧
美國拿走台積電3奈米製程 還要求台積
改進Intel製程 台灣氣不氣 當然不氣
能得美國爸爸看重 開心都還不及
蒸餾法不會讓模型達到跟原來一樣的效果
寫這麼一大篇不要瞎掰好嗎?
管他什麼法 用就對了
中文領域基本上屌輸DEEPSEEK
畢竟也有從中國開源AI那邊搞
一般人不容易理解蒸餾還有api極限
大概也就如上文理解程度
55
首Po如題 Deepseek最近幾天風向一直變 先說成本造假 又說會影響輝達 台積電 現在又說是抄的X
絕對是抄的,藍白雜草不用再吹了,100%是抄的。 原子彈抄歐本海默 東風抄義勇兵 福建號抄福特號 姦20抄F2227
現在還在說抄襲,基本上就搞不清楚狀況而已 Deepseek已經全部開源給你看了,甚至論文跟模型都公開 國外沒啥人鳥指控抄襲的OpenAI,就是因為OpenAI根本沒公開過什麼東西 想幫忙護航的連找是哪邊抄襲都找不到 Deepseek開源是影響下面這件事1
鋼鐵人二裡頭,安東萬科拿著低價玩具,把鋼鐵人的億萬鋼鐵S級套裝電的嘰嘰叫。 1月20日,我川上任,大發慈悲給了TIKTOK 75天,好好想想要賣美國多少錢,畢竟美式民主 好喝好舔。 隔週,一個早在12月26日就上架的Deepseek,突然聲名大噪,用600萬鎂不到的成本,打爆 宣稱要幾百幾千億的openAI,瞬時ai概念股崩盤,資本全部縮手,高盛也 宣布暫緩ai相關3
Deepseek AI的訓練過程確實有用到蒸餾技術 蒸餾技術,就是在前人製造AI(例如chatgpt)的基礎上, 拿別人AI的回答當作訓練自己AI的材料 這種作法雖然有點像抄襲他人AI的能力,但在學術界已經是行之有年的做法 各國很多頂尖實驗室都用過這種方法訓練自己的AI
57
Re: [討論] 其實Deepseek真的很厲害了OpenAI:已掌握DeepSeek盜用模型證據 (中央社倫敦29日綜合外電報導)中國新創公司「深度求索」(DeepSeek)引發的疑慮日 增。OpenAI今天表示已掌握證據,顯示DeepSeek盜用其模型進行開發;業界也指DeepSeek 握有大量輝達H100高階晶片,形同直接挑戰美國出口管制規定。25
Re: [新聞] 馬斯克:2040年人形機器人將達100億台和股板無關 我也不是Tesla股東 但是 20年後這種人型機器人一旦成熟 中美都完全不可能互相用對方的產品 事實上任何有能力做的國家 理論上都不會想用別的國家的產品 原因很簡單 因為國家安全 這種機器人的關鍵的一定是機器人需要的硬體晶片 + AI軟體 佔到成本7成以上都有可能 電子電機那些東西現在就很成熟了 到時候美國機器人頂多硬體(不含晶片)給中國代工23
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據各家互相參考, 指的是訓練方法還有訓練的文本挑選, 蒸餾不太一樣 AI = 模型的程式碼+訓練 能開源的部分只有程式碼, 訓練是看各自調教 模型的能力夠, 差不多的調教方式就會得到差不多的結果 訓練方法更好, 或是文本品質越高、越多樣、量越多, 模型就越強21
Re: [問卦] 為什麼AI 這2-3年進步這麼神速?我剛好研究所讀資工領域的。 你應該知道在這次AI大模型震撼世人之前,電腦科學界在紅啥嗎?? 就是Big Data,大數據,資料探勘。 但是因為"算力"不足,所以在十年前,幾乎都是關注於儲存與基礎處理而已。 譬如NoSQL數據庫與一些簡單的資料探勘,那個時候SVM分析歸類資料可火的。20
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據Deepseek主打就是蒸餾法,就是高效的AI抄襲工具 哥爾D系柯 不只要抄,還要開源 開起來大抄襲時代 人人有600萬就能參加慈善AI抄襲大賽8
Re: [新聞] 國科會擬砸349億 拚年底推「台版Ch阿肥外商碼農阿肥啦! 本來昨天有看到這則新聞,先說我是支持台灣自己發展的啦!就是回想過往國科會說要自 己弄量子電腦,搞到現在量子沒見半毛只看到寫計畫靚仔倒是很多,人家中美都不知道發 展到哪裡了,你才在揭牌開放申請計畫,整個搞笑。 要做自己的chatGPT我是不反對,但是這些官員真的知道openAI光是訓練一個原始的版本4
Re: [討論] 用AI寫code產生的疑問AI(GPT)用於Coding的實務心得 作者是虎尾科大資工系陳國益教授,經同意後轉載文字內容,原連結於下: 在上週前往華新麗華授課時,有工程師問到:若有要接手的大型專案,應如何透過AI協助 ,加速對專案的理解速度,或是快速產生手冊、API列表等,傳統上要花非常多時間交互- 不知道為捨抹會講到邊緣運算啦QQ 不過老黃這波佈局就是替兩三年後落地場景客製化晶片 一般落地場景Inference(AI推理)的工程順序如下 拿一個PreTrain萬用大模型 用特殊資料FineTune 然後Deploy (Inference) 以LLaMA 7B模型為例 假設我今天要做一個醫療問診小幫手的AI 當我用一堆醫療資料 FineTune這個LLaMA 65B模型後達到我需求 (到此為此都會在Cuda生態圈做)
- Deepseek目前是有同時釋出開源模型(權重、Code、訓練模型的方法報告都開源)的,走跟 llama一樣的路線,所以理論上只要GPU卡夠你就可以建一個完全一樣的環境包含重新微調模 型讓DeepSeek 做瑟瑟的事情跟串接對話還有Agent去執行任務。 目前初步測試繁中能力真的屌打一堆拿喇嘛微調的台灣llama模型,重點是MoE的架構可以很 省GPU(如果是llama同精度需要32張H100卡才能佈起來)。其實這次比較新釋出的是他的R1