[情報] 疑似OpenAI實現AGI的時間表流出
https://drive.google.com/file/d/1xlRDbMUDE41XPzwStAGyAVEP8qA9Tna7
今天一則53頁的pdf檔在google文件上流出
內容為OpenAI在2027年實現AGI(通用人工智慧)的時間表
文件透漏
OpenAI訓練了一個125T參數的多模態大模型,而Q*就是該模型的第一個階段。據信該模型就是原計劃在2025年發布的GPT-5,訓練於2023年12月完成,智商達到了48。
Q* 2024(預計2026發布)和Q* 2025(預計2027年發布),智商預計將達到96和145。
IQ95已經是普通人的智商,145則是天才的智商。
神經網路參數好比大腦的突觸,參數量越大,突觸數量越多,IQ越高。GPT-2有15億個連接,比老鼠大腦(100億個突觸)還少;GPT-3有1750億個連接,接近貓的大腦。人腦約有200兆個突觸,而OpenAI開發百兆參數模型的新聞,最早出現在2021年夏天,由奧特曼的Cerebras公司CEO Andrew Feldman在Wired雜誌的訪談中透露。
爆料的真實性還有待確認。
--
※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.38.19.115 (臺灣)
※ PTT 網址
推
需要更多的GPU...
噓
還是輸竹科真神157
推
意思是還要更多晶片
推
天網要來了
推
去鴻海第一年還能150嗎
→
快失業了
噓
不知道哪來的科學小白幻想出來的 智商低於平均兩個
→
標準差就智能障礙了 而那是70 寫這篇文的一定以為智
→
商是等差才會掰一個48
推
好的 歐印NVDA
→
通用人工智障,為什麼我腦中浮現一個絆愛…?
推
IQ96就贏一堆人了,更何況他不會忘記
→
不會忘記…?現行的網路從來沒有記憶過,結算一秒鐘
→
前才剛提過,訓練中和前後文都沒有的東西瞬間就忘記
推
以後大家都是機器人的奴隸
21
[閒聊] 串連數千個 Nvidia GPU,微軟打造 Chattechnews 串連數千個 Nvidia GPU,微軟打造 ChatGPT 的超級電腦 March 14, 2023 by 陳 冠榮 微軟斥資數億美元打造一台大型超級電腦,串連數千個 Nvidia GPU,為 OpenAI 的聊天機21
Re: [問卦] 為什麼AI 這2-3年進步這麼神速?我剛好研究所讀資工領域的。 你應該知道在這次AI大模型震撼世人之前,電腦科學界在紅啥嗎?? 就是Big Data,大數據,資料探勘。 但是因為"算力"不足,所以在十年前,幾乎都是關注於儲存與基礎處理而已。 譬如NoSQL數據庫與一些簡單的資料探勘,那個時候SVM分析歸類資料可火的。10
Re: [請益] 為什麼有人說AI會讓資工人失去工作?阿肥外商碼農阿肥啦! 我只能說當前甚至往後十幾年都很難完全取代,除非真正的AGI實現了,那取代的可能不 止資工人,而是整個人類社會了,想想看AGI都有人類智慧了,那鎖螺絲、自己修理自己 或是檢測同類機器人都是很簡單的,那幹嘛還找人類黑手? 先說說像GPT-4即便是大成功的當下,很多企業要復現這樣的模型難度也是跟登天一樣X
Re: [爆卦] 中央研究院詞庫小組大型語言模型對於LLM只有這一點認知程度的話,最好不要就這樣出來帶風向會比較好,不然先去 跟陽明交大校長先去旁邊先學習一下什麼叫做LLM,不同LLM之間又有什麼差異。 第一個錯誤的認知是認為LLM就應該要提供正確的答案,事實上LLM是一個機率模型, 它所做的事情是基於模型的權重預測下一個token(詞塊)最高的機率是那個,它不是資 料庫,所以你不能因為它答的一個答案不是你所想的就是說這個模型如何如何。8
Re: [新聞] 國科會擬砸349億 拚年底推「台版Ch阿肥外商碼農阿肥啦! 本來昨天有看到這則新聞,先說我是支持台灣自己發展的啦!就是回想過往國科會說要自 己弄量子電腦,搞到現在量子沒見半毛只看到寫計畫靚仔倒是很多,人家中美都不知道發 展到哪裡了,你才在揭牌開放申請計畫,整個搞笑。 要做自己的chatGPT我是不反對,但是這些官員真的知道openAI光是訓練一個原始的版本6
Re: [問卦] ChatGPT改變了什麼行為模式?行? : : 業都發揮著重要作用,對許多人的生活產生了深遠影響。我想請問各位前輩,究竟Ch at : : T改變了哪些行為模式呢? : : 希望大家能分享一些寶貴的經驗和看法,讓我對ChatGPT及其對社會行為模式的影響3
Re: [問卦] ChatGpt為什麼開始變笨了?正好半夜看到這篇無聊來回一下 GPT4能力下降大概5月多開始就有人注意到了 但你要怎麼定義能力衰退這件事而且量化他? 於是七月就有一篇論文在討論這件事