Re: [問卦] 為什麼AI 這2-3年進步這麼神速?
我剛好研究所讀資工領域的。
你應該知道在這次AI大模型震撼世人之前,電腦科學界在紅啥嗎??
就是Big Data,大數據,資料探勘。
但是因為"算力"不足,所以在十年前,幾乎都是關注於儲存與基礎處理而已。
譬如NoSQL數據庫與一些簡單的資料探勘,那個時候SVM分析歸類資料可火的。
就是用一些通用數學演算法把資料分群分類,但也就這樣。
並不能"生成"。
這個時候Deep learning的基礎原理其實十年前就已經有了,說到更早的多層神經網路,
甚至是50年前的事情,那為什麼現在才爆發,其實也就是硬體總算跟上了。
量變產生質變,大力出奇蹟,自我加速迭代改進。
你看一下他們的參數是如何巨量成長的:
GPT-1:
發布於2018年,約有1.17億個參數。
GPT-2:
發布於2019年,提供了不同版本的模型,其中最大的版本有15億個參數。
GPT-3:
發布於2020年,具有1750億個參數,是當時最大的語言模型之一。
ChatGPT:
發布於2022年,將GPT語言模型用強化學習回饋訓練成人類喜好的聊天機器人。
GPT-4:
發布於2023年,據說有1.8兆個參數。
這就是量變產生質變,大力出奇蹟的威力。
也要歸功於老黃的GPU才能讓"大數據"變成"AI大模型"
十年前大數據可透過資料探勘變成資訊。
現在大數據透過AI訓練則可以變成AI大模型,也就是智慧。
這次的sora其實也差不多,用的是Diffusion Model為基礎,去年也都有網站公開展示了。http://tinyurl.com/78tezvev
但OpenAI啥沒有,算力最多,我用更大的算力去處理數據,
OpenAI還有什麼?GPT-4,我用GPT-4把影像的tag的訓練集,
"生成"能更仔細描述影片的長文,甚至用生成的影片再訓練。
這也就是AI的自我加速迭代改進,也就是一些AI加速主義者,奇點的成因。
你看看從一年間從威爾史密斯吃麵到現在吃漢堡的改進有多驚人
https://twitter.com/newsNZcn/status/1759150630470599150
所以現在能夠抵擋AI指數成長的限制器大概就剩下GPU與能源了。
大家好自為之。
====
反觀區塊鏈的Blockstream不用GPU與能源,自己用blocksize把自己限制住。
真是幹他媽的。
--
認真文先推一把
這樣看來硬體無限 所以要投資nv跟核能
區塊鍊到底要幹嘛用的...
就被限制死了啊,所以當然是無用電子訊號,1MB區塊我也不知道能幹嘛
https://jochen-hoenicke.de/queue/#BTC,24h,weight給你看看被拘束器限制住的永恆的mempool,大家都在排隊,哈哈哈~~~
https://cryptostreets.io/v/btc
所以AI就是比賽誰買到的GPU最多就贏ㄇ
區塊鍊的概念很屌耶,不過被炒過頭ㄌ
都是騙局 AI沒應用 核能會爆炸 豪可怖
我有用gpt4 每天都看到共用的人在用ai工
作 繪圖寫文案寫程式還有算數學題 超扯
推
2017年Google的Transformer論文是關鍵
的確是演算法的關鍵,但硬體也要指數成長才能有用。 不過當初發表的Google坐擁強大硬體優勢卻沒看到,真的是老了。
※ 編輯: DarkerDuck (36.236.237.31 臺灣), 02/17/2024 17:34:45推
推 大師請問再過10年 AI 會有情緒嗎
你可以直接去問Neuro-sama會比較準
https://www.youtube.com/@Neurosama/videos
天網還有多久出來?!
還有一個原因 找到一個參數越多表現越
好的AI模型
每錯 你各位耗子尾汁
距離通用ai還要多久阿?
ai 到底什麼時候可以應用到自動控制
我不知道是什麼領域的自動控制,但現代AI是種"黑箱"。 假如是要求高度安全性與穩定性的自動控制通常不敢貿然採用
特斯拉玩了那麼久都搞不好自動駕駛
看來要被其他AI公司取代了 嘻嘻
為什麼感覺ai用在醫學腳步很慢?
一直都有用在輔助判斷上面,譬如影像判讀。 但不可能取代醫師,因為法律問題要有人負責。 跟藥師也可以完全被AI與包藥機取代一樣。 基礎研究的部分倒是早就大量採用AI去研發藥物了。
法規先定好就可以 就像自動駕駛LV1-5分級
醫學同樣用法規 讓使用者簽同意書就好
AI能生成A片的時候再叫我
我都用NAI3生成A漫,自產自用,劇情無限制。
推加密貨幣板主
認真文推推
推版主
幫推
推
推
推
看到sora 真的會顛覆很多產業
數據驅動模型最大致命傷在於沒學過的知
識 你不能期待它可以給出可靠的結果
35
首Po雖然我小時候就聽過ai了 但那時候也沒像現在這樣 生成式XXX 百花齊放 給個一句白話文 只要不是文盲會下指令 都會用…2
其實就三十年前的演算法,電子炒過一堆領域後換它,有人說只是聊天那就太膚淺了,最近一次的突破是底特律警方利用AI辨識抓通緝犯,結果錯抓到個孕婦還是個尼哥,被求償一億美元,就技術人員的說法,這類演算法對有色人種很容易誤判,嗯,翻轉時代來臨了。 ※ 引述《soulmola (肥宅的教育不能等)》之銘言: : 雖然我小時候就聽過ai了 : 但那時候也沒像現在這樣 : 生成式XXX 百花齊放11
阿肥外商碼農阿肥啦! 先說一下,你小時候聽到的AI這個多半是指符號主義跟控制論這派,這派興起大概就是19 80年左右,主要就是從集合論跟控制論下手,當時的電腦科學家相信只要窮舉人類的邏輯 符號跟搭配控制系統工程就可以達到人工智慧的入口,不過後來發現這種根本無法模擬出 人類的模糊性更糟糕的是隨著系統越來越複雜抽象邏輯會發生衝突等現象,所以符號主義2
近期AI成果一個很重要的因素是從 ‘‘有限’’解放到‘’無限‘’ 有了一定程度的‘‘無限’’作為能力 能做到的事顯然就變得強很多 我們可以稍微回顧一下深度學習AI的發展 2012年Nvidia的GPU被用到圖片分類問題上 其實1970年代就已經有相關技術 但是很吃算力 與其讓電腦慢慢學習特徵 不如人工研究怎麼抓特徵10
我在2005年寫的論文是有關類神經網路解問題,那時雖然有matlab裡的工具箱可用 但論文的問題不適用,所以用數學式跟寫神經元程式一步一步弄出來 然後寫完模型後還要讓他學習,光一個改變參數就要讓他學習四個小時才能有答案 以前的電腦算力不足,軟體無法搭配,AI學習速度非常之慢 這幾年的電腦算力提升不少外,一些創新的網路模型也有出現,也有軟體有現成工具1
你電腦電子資訊領域就算硬體軟體再發達再先進 二類組領域還有文組領域的 會認為當你把一疊資料讓電腦去運算 就可以製造出 當你在烹調任何食物的時候 什麼時候要加鹽巴嗎? 什麼時候加味精? 什麼時候加胡椒
21
[閒聊] 串連數千個 Nvidia GPU,微軟打造 Chattechnews 串連數千個 Nvidia GPU,微軟打造 ChatGPT 的超級電腦 March 14, 2023 by 陳 冠榮 微軟斥資數億美元打造一台大型超級電腦,串連數千個 Nvidia GPU,為 OpenAI 的聊天機14
Re: [閒聊] 文心一言AI繪圖(慎入)文心一言實力不如ChatGPT是理所當然的,微軟投資幾百億美元並且用微軟的雲端訓練整個網 路資料兩年了,到了去年底才終於開花結果 目前這種LLM模型,最重要的就是 資料 算力 和算法,其中基礎的資料是非常重要的,Chat GPT在建立模型的過程跟一般的Ai一樣要機器學習建立模型,而ChatGPT的基礎原理就是由上 一個字生成下一個字,週而復始,其中在訓練的過程還會經過人工挑選優質回答和一些和添20
[閒聊] 投入 生成式AI / GPT 的顯卡選購建議看了板上的一些AI組機文,實在有點話想拿出來聊聊。 比較常提到的繪圖大家應該都知道,現在建議就是3060 12G,VRAM稱王, 其他選擇就是4070(Ti) 12G / 3090 24G / 4090 24G,4080 16G CP值太差...之類。 不過我真的強烈建議還弄的到二手3090就去弄、預算有個80K拿4090比較不會後悔。 為什麼呢?10
Re: [請益] 為什麼有人說AI會讓資工人失去工作?阿肥外商碼農阿肥啦! 我只能說當前甚至往後十幾年都很難完全取代,除非真正的AGI實現了,那取代的可能不 止資工人,而是整個人類社會了,想想看AGI都有人類智慧了,那鎖螺絲、自己修理自己 或是檢測同類機器人都是很簡單的,那幹嘛還找人類黑手? 先說說像GPT-4即便是大成功的當下,很多企業要復現這樣的模型難度也是跟登天一樣9
Re: [新聞] 學家:美股AI熱潮像是2000年網際網路量變帶動質變 一直是不變的道理 這次是什麼量呢? 運算能力的量 造就了很多以前沒辦法達成的事情,可以用電腦暴力破解X
Re: [爆卦] 中央研究院詞庫小組大型語言模型對於LLM只有這一點認知程度的話,最好不要就這樣出來帶風向會比較好,不然先去 跟陽明交大校長先去旁邊先學習一下什麼叫做LLM,不同LLM之間又有什麼差異。 第一個錯誤的認知是認為LLM就應該要提供正確的答案,事實上LLM是一個機率模型, 它所做的事情是基於模型的權重預測下一個token(詞塊)最高的機率是那個,它不是資 料庫,所以你不能因為它答的一個答案不是你所想的就是說這個模型如何如何。8
Re: [新聞] 國科會擬砸349億 拚年底推「台版Ch阿肥外商碼農阿肥啦! 本來昨天有看到這則新聞,先說我是支持台灣自己發展的啦!就是回想過往國科會說要自 己弄量子電腦,搞到現在量子沒見半毛只看到寫計畫靚仔倒是很多,人家中美都不知道發 展到哪裡了,你才在揭牌開放申請計畫,整個搞笑。 要做自己的chatGPT我是不反對,但是這些官員真的知道openAI光是訓練一個原始的版本3
[問卦] AI未來發展有沒有可能有意識?AI現在可以說是顯學 而且一直會不斷發展進步 那會不會哪天真的有電腦學家搞出可以產生意識AI算法? GPT-3 參數:1750 億 GPT-4 據說可能是GPT-3的6倍參數 隨著電腦晶片技術的進步 還有一些AI模型設計的進步1
Re: [問卦] 為什麼人工智慧在這今年炸開了這一波是十年前的AlexNet才開始讓ML實用化 以往都只是研究 AlexNet橫空出世 GPU+大型CNN 辨識率高 忽然讓一堆人想到 啊幹 原來GPU能幹那麼複雜的事情 所以從2012年之後 ML/AI的研究如同雨後春筍呈現爆炸性的增長 ML從事的人多 想法就多 推出的模型多 成功的總會有幾個
爆
Re: [新聞] 擋3大法案? 柯建銘稱「不急」:藍白委6289
[問卦] 新北耶誕城是不是退燒了???47
[問卦] threads:高雄有魷魚遊戲根本首都56
Re: [問卦] 中共打來是誰要去面對?50
[問卦] threads上面因為建中放女學生立牌吵翻了爆
[問卦] 為什麼8+9都可以穿名牌、開雙B?爆
Re: [新聞] 卓榮泰:天災來時 地方要自己面對50
[問卦] 蔡依林為什麼要把香爐穿在身上==48
[問卦] 以前班上不念書的8+9長大後真的撿角了嗎?44
Re: [新聞] 民眾黨版財劃法遭藍營丟包 黃國昌喊可接33
[問卦] 1000萬房貸 壓力有多大?43
[問卦] 一樣宣傳魷2 為何差別待遇呢?42
[問卦] 蹦闆為什麼不敢提到增重失敗爆
[問卦] 為什麼日本有辦法讓89變成過街老鼠?34
[問卦] 8+9是都有割胃才這麼瘦嗎?33
[問卦] 小鍾:請統粉不要公布我的個資45
[問卦] 每年中央少的錢 就撤掉數發部 不就好了78
[問卦] 政黑:財劃法 台北拿那麼多錢幹嘛用29
[問卦] 高雄人一直看造型氣球不會膩嗎21
[問卦] 新聞可以這樣拍大腿擦傷嗎?27
[問卦] 人力費上漲 未來長照怎麼辦?22
[問卦] 大安國小是天龍小學嗎8
[問卦]八又翻? 現實風向一面倒 根本不挺統神?爆
[問卦] 為什麼高雄人覺得北中在搶他的錢21
[問卦] 穿這樣見網友可以嗎?(圖)20
[問卦] 曼谷觀光是怎麼打造那麼強的36
[問卦] 如果超哥 蹦闆打起來要選一邊?19
Re: [新聞] 抵制傅崐萁!苦苓:只要他還活著絕不踏進17
Re: [新聞] 元旦起禁止旅宿提供「一次性盥洗用品」13
[問卦] 每年給你23萬,你願意搬到一個小島嗎?