Re: [討論] OpenAI GPT o1模型
不就是語言模型+題庫
題庫1000題不夠,那就10000題
一萬題不夠,那就10萬題
看你人的腦袋能裝多少題庫 拼的過嗎?
但是對那些非一般性的
面向多的,沒有標準答案的
個別性強,特殊場合,網上找不到答案的
資料不足,不完善的
AI 就嗝了
某小氣公司 難得花了大錢 買了Licence
打算明年縮減一半的人力來完成更多的工作
只能說這些早就不碰技術的高層
異想天開 腦袋裝屎
AI 能解的問題 人工早就解了
人工不能解的 AI 也不能解
但是AI會唬爛很多行不通的答案
來浪費人工去驗證
--
有卦有推
小氣公司砍掉底層人力正好最適合
反而沒有標準的才是genai的強項
哪間
喔喔喔喔喔這麼會算喔 那幫我算一下怎麼從重劃台北
萬華區 總投資五年回收哦
哪間
其實這次o1似乎就是AI自己出題自我訓練了
ChatGPT plus 一個月 20 美金而已
人工不能解的不就請再多人也沒有
LLM都出來這麼久了怎麼還有人在講題庫
LLM都出來這麼久了,怎麼還有人搞不懂就是題庫。。
LLM就是超大接龍,哪來的什麼智慧,話術行銷是一回
事,搞清楚他能做什麼做不到什麼很要緊,LLM可以搞
一些從1到5的東西,從0到1就沒輒了。如果現在人搞不
不出來但是機器搞得出來代表問題本質就是排列組合
人搞不出來機器也搞不出來,那就得靠真功夫想些新
東西了
但0到1是基礎學科研究在做的 一般工程師甚至整個公
司都是在做1到5的事啊 有哪位的code不是套既有演算
法而是自己想出比既有演算法更好複雜度的寫法嗎?
天氣預測/蛋白質結構預測/候選藥物預測是文字接龍嗎
?笑死。
什麼時候LLM做天氣預測了。。。
現在所謂的ai只是把問題想辦法塞進目前可以訓練的
框架,其本質是統計,哪來什麼扯淡智慧,統計沒什麼
不好,只是要搞清楚哪些是話術哪些是搞得出來的東西
現在動不動就恐嚇人什麼agi,嚇唬誰呢
還在統計...看來是個完全不懂alexnet的朋友呢
小氣的小公司嗎
真的,看不懂的只能說你還不懂AI是什麼
還在題庫哦 機率是什麼你們懂嗎
分類問題你們懂嗎
唸書好嗎 generative model了解一下 看不懂英文就算
了 你就這樣吧
還在接龍真的超級可悲
自主學習啊 alphago. ,但玩法(演算法)要告知
所以小氣公司真的可以用AI來縮減一半的人力?
LLM說是統計也沒錯啦 畢竟維基上開頭LLM解釋就有st
atistical relationship這個字 但AI智慧的來源應該
還是back propagation 找最優解時收斂得比人類快吧
但LLM也不只有1-5這樣 它是大於它的訓練集的 就像A
lphago一開始的版本也是用人類棋譜訓練的還不是勝
過人類 AI的核心就是用大量的資料去倒推出最佳化的
參數它能回答的遠超過訓練集 是可能比人類還要更強
看看o1還能推導 數學程度應比一般的數學系學生還
強吧 不只題庫想太多
搞了半天還不懂現在所謂的ai就是statistical
learning才是真正可悲。動不動就比誰讀多讀少
可憐啊。。。現在什麼learning都一樣,最最核心
都是一樣的套路,LLM不叫接龍,那什麼叫接龍。。。
如果現在的AI可以證明我們都不會的問題,例如6題
百萬難題,那才算個事,要不然本質就是排列組合。。
回到教育,如果我們老是對標ai又做對了幾題然後感
到絕望,那出問題的是我們的教育,我們到底了學了
什麼,是要成為小鎮做題家還是要成為創造0到1的人
這個問題沒有答案,但如果整天只用答題來對比自己
跟目前ai的距離,那就如人追車,本來就沒有意義
嗆別人分類和機率才是真正可悲,你懂你給咱們開開
眼界,給咱們講講機率的本質,貝葉斯學派和頻率學派
給我們科普科普,要不要順便測度論也來一下,
對了,也教教我們Wiener integral吧
講個題庫就激動成這樣,現在的ai也刷題刷題庫
不刷題庫的不就你剛好知道loss function怎麼寫
有什麼好大小聲的,說來說去就是原po說的:
AI 能解的問題 人工早就解了
人工不能解的 AI 也不能解
我們把標準降低,ai確實是一個稱手的好工具
但把標準放回大家最初的念想agi,那我們確實還有
很多需要努力,現在的ai,LLM都是時代的標記,沒
什麼好大小聲的
最愛大小聲的人不知道是誰,說不是文字接龍氣成這樣
。笑死。
要這樣定義 現在世界哪一門學科不是統計學 笑死
簡化太多了吧 大哥 頭腦簡單也只能這樣簡化了
阿醫學不也統計學 沒什麼嘛 社會學不也統計學 沒啥
另外人工不能解但AI解得了的早就有了 那個叫AlphaGo
你人類去下贏電腦嘛
還在那邊人工不能解的 AI早也不能解 真的以管窺天
真的不曉得在大聲甚麼 指出原PO一個明顯的錯誤而已
旁觀者就氣成這樣喔? 要反駁也講點有道理的東西出來
這篇就沒有一個字是正確的 通篇胡說八道嘛
還在那邊AI只能解人類解過的 去看看erath 2好嗎
AI就是利用巨量算力去模擬 暴力解那些人類解不了的
人類解不了 沒正確答案 預測類的東西 就是要用試錯
法 巨量算力就是拿來試錯用的齁
現在普遍認知是 還解不了的 那是因為算力不夠 懂嗎
為啥你講話一堆支語,好像在看一畝 XD
LLM就是題庫啊XD 他根本不能算機器語言模型
有人還不清楚AI是訓練出一個權重 所以它能處理的範
圍幾乎是無限的 也就是你可以給它任意一個input只
是正確率多少罷了 就算是個接龍遊戲AI最後也是比人
類強 在遇到沒見過的題目 AI答對的機率比人類高所
以也沒有什麼人工不能解的問題AI也不能解 去想想Al
phago的例子
舉車牌辨識為例 你拿幾千幾萬個車牌訓練它 跟人類
一樣 它就能去辨認所有的車牌 下雨天的 光線不好的
弄髒的車牌 正確率還比人高 為什麼? 因為它掌握的
核心認知 比人更貼近事實 它的函數推導出來的更為
精確誤差更小
LLM都有個M了還不是模型? 所有的AI都是大題庫訓練
出來的模型
AI主要是用來節省人力物力
會拿alphago來比生成式ai就知道真的是完全不懂xD
有人連中文都看不懂那算什麼?不曉得這邊哪個人哪一
句有把AlphaGO跟生成式AI比耶?
38
首Po上禮拜OpenAI發布經過強化學習訓練的新型語言模型o1 宣稱模型有更強大的思考能力 o1在回答之前會深入思考產生內部的推理練 結果就是o1模型在各個人類頂尖領域獲得相當好的成績29
OpenAI 最近推出了 GPT-o1,但很多人可能還沒意識到這件事的嚴重性。事實上,OpenAI 已經找到了一條通往 AGI(通用人工智慧)的階梯!這個新模型的關鍵在於,它已經整合了 ToT(思維樹)和 RL(強化學習),在大型語言模型(LLM)領域達到了類似 AlphaGo Zer o 的水準。 很多人以為 LLM 就是個「刷題機器」,記住了大量的資料,所以我們在人類記憶力上輸了2
嗨 科技板首PO 關於這篇 Open AI發展的新聞 肥宅不懂AI 但高中有參加過AIME 只有寫出四題 被AI屌打 嘻嘻 但肥宅還是想幫人類平反一下10
阿肥外商碼農阿肥啦! 目前技術太多都說得太雲裡霧裡,但是截至目前為止針對o1其實OpenAI透露出來的技術細 節都不如過往得多,像之前GPT-4跟GPT-3.5過往還有完整的文件跟引用可以窺探,所以就 不做過份的臆測了。 以目前的一些文件上有提到的可以確定這次o1使用了CoT這絕對是一個Agent沒錯(跟過往
8
[問卦] 色盲題庫全答對是有問題還是沒問題如果有去醫院做過色盲測驗 會知道裡面有陷阱題 如果答對陷阱題就是有色盲 那我就很好奇 如果有人色盲題庫全答對4
[討論] 請益選書目前做完TOEIC官網上的示範題目 聽力錯一題 閱讀錯兩題(但示範題目沒有全部200題,只是範例) 想請教 想直上950 應選哪本書來刷 (已爬文爬出下列書單) 1. 國學 聽力/閱讀 題庫大全2
[課業] 犯罪學選擇題RT 犯罪學從107年改制後才開始有50%的選擇題,要找歷屆練習僅有3屆而已 題庫量少之又少 所以想請問各位考友都怎麼練習選擇題的? 小弟已經刷完何X老師的主題式混合題庫了,雖然裡面有將近1000題,但不是每題都有詳解1
[課業] 經濟學問題(證券分析師題庫)以下四題為證券分析師經濟學題庫的問題~ 煩請神人回答,感恩~ 第90題 投資也是所得的函數時,IS曲線斜率將「變陡」 為何不是因為乘數變大而變平呢~?1
[閒聊] 笨蛋測驗召喚獸的出題方式測驗召喚戰爭需要的考卷量其實不少, 而且每次戰爭都要出題的話,那應該是用題庫亂數出題的吧。 然後也要適當地印出參考答案,不然老師批改的速度也趕不上戰爭。 後期有沒有使用電腦閱卷我就不太記得了,太久沒看了…… 可是如果用線上表單出題,線上表單批改呢?- 最近在刷題庫 做到一題難題 請問這題答案應該選什麼? --
- 哈囉 大家好,我是阿摩線上測驗創辦人-阿摩, 最近我們加強英文學習功能, 提供了免費多益聽力,閱讀和單字測驗, 目前提供了6回共600題「聽力」試題和20回2000題「閱讀」試題,還有3000字單字測驗 連結如下: