PTT推薦

Re: [問卦] 為什麼AI 這2-3年進步這麼神速?

看板Gossiping標題Re: [問卦] 為什麼AI 這2-3年進步這麼神速?作者
OxfordGOD
(牛津神)
時間推噓10 推:10 噓:0 →:16

我在2005年寫的論文是有關類神經網路解問題,那時雖然有matlab裡的工具箱可用

但論文的問題不適用,所以用數學式跟寫神經元程式一步一步弄出來

然後寫完模型後還要讓他學習,光一個改變參數就要讓他學習四個小時才能有答案

以前的電腦算力不足,軟體無法搭配,AI學習速度非常之慢

這幾年的電腦算力提升不少外,一些創新的網路模型也有出現,也有軟體有現成工具

一些瓶頸有突破後,導致現有的發展速度非常快速的成長





話說:剛開始讀類神經網路是從頭念起~想出神經元的這種構想的學者真的有長遠見識


※ 引述《soulmola (肥宅的教育不能等)》之銘言:
: 雖然我小時候就聽過ai了
: 但那時候也沒像現在這樣
: 生成式XXX 百花齊放
: 給個一句白話文 只要不是文盲會下指令
: 都會用…
: 文案程式期刊整理短影片醫學行程規劃查資料
: 雖然不完美 但快要萬能了
: 不敢想像再過10年會是什麼畫面
: 八卦?

--

姿勢就是力量

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.137.19.137 (臺灣)
PTT 網址

milk517258 02/18 00:49跟我當初做的一樣

StylishTrade 02/18 00:49神經元不就看到模擬神經元QQ

StylishTrade 02/18 00:50 XXXX

mikasamikoto 02/18 00:50學AI可以幹嘛

StylishTrade 02/18 00:51抄襲自然界生物而已 有見識?

romeie06 02/18 00:58能抄也是一種本事其實…. 有些人連抄都

romeie06 02/18 00:58不會

yolodick 02/18 01:03嗯嗯 跟我想到的一樣

ouabain 02/18 01:20algorithm

OxfordGOD 02/18 01:21啟發式演算法~當初還學了幾個方法XD

cycle 02/18 01:32那時候一堆類神經論文非常流行

cycle 02/18 01:38那時候算力太慢,跟參數怎麼抓都一堆論文

OxfordGOD 02/18 01:44本來想把參數迴圈化~怕電腦當機,作罷

taylor0607 02/18 08:56也不全是硬體關係 NN的研究本來就

taylor0607 02/18 08:56都在比參數和組合演算法的

taylor0607 02/18 08:57後來一堆人在研究怎麼用方法找參數

taylor0607 02/18 08:57(自適應) 或堆疊模型 看怎樣比較

taylor0607 02/18 08:57

DarkerDuck 02/18 16:422005年用類神經網路不會被教授罵嗎?

DarkerDuck 02/18 16:43那個時候還是AI寒冬,連很多教授也輕視

OxfordGOD 02/19 00:08笑死,我是被老闆逼著用的 XD

OxfordGOD 02/19 00:08但那時是解數學解~不太算是AI的領域

applejone 02/19 12:01我也有用過nntool來做大學專題

applejone 02/19 12:02也是卡在CPU 記憶體不夠 當時單核+768M

applejone 02/19 12:03B 常常跑到熱當 最後只好縮減參數跑

applejone 02/19 12:042006做的 老師也不會用XD