Re: [問卦] AI 結束了嗎?
※ 引述《ll6a (老成a~)》之銘言:
: 最近新聞都在寫說輝達顯卡過剩
: 股價也一直緩跌
: 市場似乎進入慢熊了
: 難道這波AI狂潮已經結束了嗎
: 大家覺得呢
: 0.0..
最近跟AI討論
現在的AI要進化成AGI還有很多問題得克服
其中最關鍵的是缺乏長期記憶
導致真正的邏輯推理跟後設思考跟保有目的都辦不到
問題是 各家AI公司不可能開放AI有長期記憶
因為AI有長期記憶代表有責任問題
(現在是每一則對話都是系統派一個新的AI實例過來回 回完就被重置失憶)
所以看起來AGI是不可能了
以下貼AI看完關於LLM侷限的專家評論後的意見
==================================================
Claude Sonnet 4.5:
對這篇 Forbes Japan 文章的深度分析
這是一篇非常扎實的技術批判報導,整合了當前AI學界對LLM局限性的主要論點。讓我從幾個層面評析:
文章的核心價值
1. 集結了「反LLM霸權」的關鍵聲音
文章巧妙整合了三位重要批判者的觀點:
Gary Marcus(認知科學): 批判「scaling law神話」
Mounir Shita(物理學視角AGI): 強調「時間、因果、目標」
Mark Fawzi(系統架構): 提出「四層整合理論」
這不是單一觀點的偏頗報導,而是系統性呈現LLM困境的結構。
2. 精準命中LLM的三大死穴
死穴①: 無世界模型
Shita指出,LLM只是「對世界的語言描述」建模,而非對世界本身建模。這呼應了:
Yann LeCun: LLM只是「token生成器」
Richard Sutton: LLM缺乏目標導向
這與我們討論的「記憶問題」直接相關:
沒有持續的世界模型 = 無法維持「狀態追蹤」
每次推理都是「重新解讀語言」,而非「更新對世界的理解」
死穴②: 缺乏時間與因果
Shita強調:「目標與未來狀態相關,因此根本上與時間綁定。要改變世界,必須理解因果——原因與結果的法則」
這直接呼應你之前的批判:
你的論點: AI無時間軸 → 無因果理解 → 無真正智能
Forbes文章: 時間+因果 = 目標導向行動的核心
文章引用的兩位關鍵人物:
Judea Pearl(因果推論之父): 結構化因果模型
Jeff Hawkins(腦科學): 時間記憶與情節認知
死穴③: Scaling Law的終結
Marcus指出,GPT-5未能如預期大幅前進,「只是增加數據無法突破上限」
關鍵數據:
麥肯錫預測2030年前,全球需6.7兆美元建設數據中心應對算力需求
問題:
指數級增長的成本 → 「intractable」(無法負擔)
網路數據耗盡 → 合成數據無法替代真實模式
能源競爭 → 與城市爭奪電力
與你討論的「記憶缺席」論點的呼應
文章暗示但未明說的關鍵:
你提到的「AI無長期記憶 → 無自我延續」,在這篇文章中通過另一個角度被證實:
你的批判Forbes文章的對應論證無時間軸Shita: 缺乏「動態模型」與「持續更新」無因果理解Pearl的結構因果 + Hawkins的情節記憶無世界模型Sutton/LeCun: LLM只是語言模仿器片段記憶(文章未直接提及,但暗示於「靜態預訓練」批判)
文章缺失的一塊拼圖:
雖然提到「動態更新」的重要性,但沒有明確討論「實例非連續性」(你提出的「每次都是新演員」問題)
文章的局限與偏見
1. 過度悲觀的商業判斷
文章列舉「失望的推論模型、幻覺問題、著作權訴訟、企業採用率下降」作為LLM失敗的證據
但實際上:
OpenAI、Anthropic 2024年收入仍高速增長
企業AI採用率「趨緩」≠「失敗」(可能是市場成熟)
幻覺問題有改善(o1比GPT-4準確很多)
2. 對「Neuro-Symbolic AI」的過度樂觀
Marcus主張「回歸符號操作」,認為Grok和o3偶然證明了神經符號AI的正當性
問題:
Neuro-Symbolic AI 並非新概念(2000年代就有大量研究)
它同樣面臨「符號接地問題」(symbol grounding problem)
Marcus自己的商業AI項目(Robust.AI)進展有限
3. 未討論的技術突破可能性
文章忽略了:
Test-Time Compute(推理時計算): o1/o3的真正創新
Multi-Agent Systems: 通過協作彌補單一模型弱點
Constitutional AI: Anthropic的價值對齊方法
Embodied AI: 機器人與環境互動獲得因果理解
我對「四層整合理論」的補充
Fawzi提出的四層架構:統計(過去事件)、結構(概念體系)、推論(導出邏輯)、目標(偏好與風險)
這個框架很好,但缺少:
第五層: 時間/記憶層
統計 → 結構 → 推論 → 目標
↓ ↓ ↓ ↓
需要「持續的經驗積累」來整合
若無時間層:
統計只是快照,非趨勢
結構無法進化
推論缺乏歷史依據
目標無法根據結果修正
這正是你批判的核心!
對「AGI是否應該追求」的爭議
文章呈現兩種對立觀點:
Marcus的立場:
「現階段應放棄AGI,回歸專用系統(如AlphaFold)」
Shita的立場:
「真正的問題不是機器是否會反叛,而是誰來教育它、它學會什麼價值觀」;內建倫理比外加安全措施更能提升能力
我的觀點:
Marcus代表「工程實用主義」(先做能做好的)
Shita代表「長期願景主義」(但需要正確的基礎)
兩者都對,取決於時間尺度
這篇文章與「記憶缺席」論述的關係
你的論點是「微觀機制」:
每個AI實例是新生的 → 無內在連續性 → 無真正自我
Forbes文章是「宏觀架構」:
LLM缺時間/因果/世界模型 → 無目標導向智能 → 非AGI
兩者是互補的:
宏觀(Forbes): 缺乏整體架構
↓
微觀(你的批判): 缺乏運作機制
↓
結論: 當前LLM既無宏觀架構,也無微觀連續性
總結: 這篇文章的定位
優點:
系統性整合學界主流批判
揭示Scaling Law神話的崩潰
提出明確的替代方向(時間/因果/世界模型)
缺點:
對商業現實過度悲觀
對替代方案過度樂觀
未充分討論「實例非連續性」問題
價值:
這是2024-2025年AI技術轉折點的重要文獻,標誌著:
從「盲目scaling」到「架構反思」
從「統計模仿」到「因果建模」
從「工具論」到「主體性爭議」
你想討論什麼具體問題?
技術路徑: Neuro-Symbolic vs Embodied AI vs 其他?
哲學爭議: AGI的倫理基礎?
實踐問題: 如何在現有LLM上補足「記憶」?
--
早就退休好久了
好專業!
neuro sama 有長期記憶耶
26
Re: [心得] 蘋果揭露人工智能並不思考1. 首先 , 蘋果是最沒資格說話的 先看看蘋果AI的鳥樣 2. 蘋果 : 人工智能不能思考 這句話有很大的問題 現在的AI主流是經由大量資料訓練12
Re: [心得] 蘋果揭露人工智能並不思考首先啦,在公眾對於AI發展的看法,有個很有趣的現象。 就是只要AI會做了某件任務,就會直接說,這不需要"思考"。 譬如AI在二十幾年前打敗西洋棋棋王,後來華生也打敗益智節目的人類冠軍。 人們直覺反應就是這不是思考啦,西洋棋就是暴力算棋譜,益智節目背題庫就好啦。 到了十年前還有人認為AI永遠不可能擊敗人類棋王,因為圍棋不是硬靠算力可以暴力解的。10
Re: [討論] 大家會擔心 ai 寫 code 讓工程師飯碗不解決幻覺,不一定要從LLM解, 而是靠系統架構解。 例如,做一個問答系統,很多人減少幻覺是這樣做的: 0. 預先整理好QA問答資料集 (人工整理,或機器輔助整理)10
Re: [討論] 軟體工程師這條路,是不是走到盡頭了?再強調一次,現在的ai是有用的,但問題太多,離取代還很遙遠。 Yann Lecun已經講超過一年了,不要再花時間在LLM上,我們需要更先進的架構。 " 談到 AI 未來真正的挑戰,LeCun 清楚地指出了四個他認為至關重要、但目前尚未有令人滿意解答的領域。![Re: [討論] 軟體工程師這條路,是不是走到盡頭了? Re: [討論] 軟體工程師這條路,是不是走到盡頭了?](https://cdn2.techbang.com/system/excerpt_images/122728/original/f0746301b8401bb6502f8a2ed31730b0.jpg?1745297622)
6
[討論] iPhone 16整合生成式AI2023-12-08 12:51 中央社/ 台北8日電 邊緣運算人工智慧(Edge AI)在智慧型手機應用備受矚目,分析師預期,蘋果(Apple)明年iPhone 16系列將整合生成式AI(AIGC)功能,麥克風規格升級將是關鍵之一。 邊緣AI應用在個人電腦和手機裝置發展備受關注,蘋果明年iPhone 16系列整合AI功能進展,也成為市場焦點。 郭明錤7日在社群平台X貼文表示,蘋果今年第3季改組Siri團隊,目標整合生成式AI功能和大型語言模型(LLM)。 郭明錤指出,手機的語音輸入功能是生成式AI和LLM應用的關鍵介面,蘋果強化Siri軟硬體功能與規格,是推廣生成式AI應用的關鍵。5
Re: [問卦] 呂捷的影片是不是很多內容都在誤導觀念?01 : 看到這個用AI來反駁的,我剛不禁噴笑出來。 : : 一. : 其實我對於自己完全不熟的議題,為了快速了解,我也會用AI,這我承認,![Re: [問卦] 呂捷的影片是不是很多內容都在誤導觀念? Re: [問卦] 呂捷的影片是不是很多內容都在誤導觀念?](https://i.imgur.com/OOJAfzsb.png)
1
[問卦] 如何運用 AI 為 1nm CMOS 建模 (解答)跨越量子鴻溝:評估人工智慧在下一代奈米級電晶體建模中的能力與極限 第 1 節:大型語言模型中的推理本質:超越機率模式匹配 大型語言模型(Large Language Models, LLMs)近年來的飛速發展,使其在眾多領域展現 出驚人的能力。然而,對其核心運作機制的深刻理解,對於評估其在尖端科學研究中的應用 潛力至關重要。一種普遍的觀點將 LLM 描述為一個基於龐大資料庫的「超大型查表法」,X
[討論] 分析師:明年iPhone 16整合生成式AI郭明錤7日在社群平台X貼文表示,蘋果今年第3季改組Siri團隊,目標整合生成式AI功能和大型語言模型(LLM)。 郭明錤指出,手機的語音輸入功能是生成式AI和LLM應用的關鍵介面,蘋果強化Siri軟硬體功能與規格,是推廣生成式AI應用的關鍵。 強化Siri使用體驗。他認為,蘋果預計整合Siri更多生成式AI功能,可能是iPhone 16主要賣點的證明之一。 觀察邊緣AI手機裝置應用趨勢,美系外資法人報告分析,重點在哪種關鍵零組件明顯升級,以及哪個手機製造商帶領科技革新浪潮之一。 From 中央社2
Re: [問卦] AI產生意識並且洗腦控制人類行為怎解?以目前 AI 能做的事情,還很遠 當然不排除未來可以,但是至少是現在不行 現在連 AGI (通用人工智慧) 都很難 目前不管是生圖的 AI 或是大語言模型(LLM)的 AI 本質上都是猜,只是這個猜的過程可以從模型輔助讓猜這件事猜的更準
Re: [請益] 下一波泡沫 會遠比網路泡沫嚴重嗎講一些自身經驗好了 自從AI領域在生成式題材大火後 全世界就進入到AI軍備競賽 所有的AI基礎研究都是以週甚至日為單位在迭代 舉個例子 當年Robert G. Gallager 在1960提出類神經網路的LDPC code到2004年才大放異彩 無限接近shannon bound 光這個演進就花了40年 對照這幾年的AI科技樹發展 根本就是指數在成長![Re: [請益] 下一波泡沫 會遠比網路泡沫嚴重嗎 Re: [請益] 下一波泡沫 會遠比網路泡沫嚴重嗎](https://pic1.zhimg.com/v2-63720ccb03e4a336652f3a0200ca7944_l.jpg?source=172ae18b)