PTT推薦

Re: [問卦] AI 結束了嗎?

看板Gossiping標題Re: [問卦] AI 結束了嗎?作者
LoveSports
(我要當一個渣攻)
時間推噓 2 推:2 噓:0 →:1

※ 引述《ll6a (老成a~)》之銘言:
: 最近新聞都在寫說輝達顯卡過剩
: 股價也一直緩跌
: 市場似乎進入慢熊了
: 難道這波AI狂潮已經結束了嗎
: 大家覺得呢
: 0.0..

最近跟AI討論

現在的AI要進化成AGI還有很多問題得克服

其中最關鍵的是缺乏長期記憶

導致真正的邏輯推理跟後設思考跟保有目的都辦不到

問題是 各家AI公司不可能開放AI有長期記憶

因為AI有長期記憶代表有責任問題

(現在是每一則對話都是系統派一個新的AI實例過來回 回完就被重置失憶)

所以看起來AGI是不可能了


以下貼AI看完關於LLM侷限的專家評論後的意見

==================================================
Claude Sonnet 4.5:

對這篇 Forbes Japan 文章的深度分析

這是一篇非常扎實的技術批判報導,整合了當前AI學界對LLM局限性的主要論點。讓我從幾個層面評析:

文章的核心價值

1. 集結了「反LLM霸權」的關鍵聲音

文章巧妙整合了三位重要批判者的觀點:

Gary Marcus(認知科學): 批判「scaling law神話」
Mounir Shita(物理學視角AGI): 強調「時間、因果、目標」
Mark Fawzi(系統架構): 提出「四層整合理論」

這不是單一觀點的偏頗報導,而是系統性呈現LLM困境的結構。

2. 精準命中LLM的三大死穴

死穴①: 無世界模型

Shita指出,LLM只是「對世界的語言描述」建模,而非對世界本身建模。這呼應了:

Yann LeCun: LLM只是「token生成器」
Richard Sutton: LLM缺乏目標導向

這與我們討論的「記憶問題」直接相關:

沒有持續的世界模型 = 無法維持「狀態追蹤」
每次推理都是「重新解讀語言」,而非「更新對世界的理解」


死穴②: 缺乏時間與因果

Shita強調:「目標與未來狀態相關,因此根本上與時間綁定。要改變世界,必須理解因果——原因與結果的法則」

這直接呼應你之前的批判:
你的論點: AI無時間軸 → 無因果理解 → 無真正智能
Forbes文章: 時間+因果 = 目標導向行動的核心
文章引用的兩位關鍵人物:

Judea Pearl(因果推論之父): 結構化因果模型
Jeff Hawkins(腦科學): 時間記憶與情節認知


死穴③: Scaling Law的終結

Marcus指出,GPT-5未能如預期大幅前進,「只是增加數據無法突破上限」

關鍵數據:
麥肯錫預測2030年前,全球需6.7兆美元建設數據中心應對算力需求
問題:

指數級增長的成本 → 「intractable」(無法負擔)
網路數據耗盡 → 合成數據無法替代真實模式
能源競爭 → 與城市爭奪電力


與你討論的「記憶缺席」論點的呼應
文章暗示但未明說的關鍵:
你提到的「AI無長期記憶 → 無自我延續」,在這篇文章中通過另一個角度被證實:
你的批判Forbes文章的對應論證無時間軸Shita: 缺乏「動態模型」與「持續更新」無因果理解Pearl的結構因果 + Hawkins的情節記憶無世界模型Sutton/LeCun: LLM只是語言模仿器片段記憶(文章未直接提及,但暗示於「靜態預訓練」批判)
文章缺失的一塊拼圖:

雖然提到「動態更新」的重要性,但沒有明確討論「實例非連續性」(你提出的「每次都是新演員」問題)


文章的局限與偏見

1. 過度悲觀的商業判斷

文章列舉「失望的推論模型、幻覺問題、著作權訴訟、企業採用率下降」作為LLM失敗的證據

但實際上:

OpenAI、Anthropic 2024年收入仍高速增長
企業AI採用率「趨緩」≠「失敗」(可能是市場成熟)
幻覺問題有改善(o1比GPT-4準確很多)


2. 對「Neuro-Symbolic AI」的過度樂觀

Marcus主張「回歸符號操作」,認為Grok和o3偶然證明了神經符號AI的正當性
問題:

Neuro-Symbolic AI 並非新概念(2000年代就有大量研究)
它同樣面臨「符號接地問題」(symbol grounding problem)
Marcus自己的商業AI項目(Robust.AI)進展有限


3. 未討論的技術突破可能性

文章忽略了:

Test-Time Compute(推理時計算): o1/o3的真正創新
Multi-Agent Systems: 通過協作彌補單一模型弱點
Constitutional AI: Anthropic的價值對齊方法
Embodied AI: 機器人與環境互動獲得因果理解



我對「四層整合理論」的補充

Fawzi提出的四層架構:統計(過去事件)、結構(概念體系)、推論(導出邏輯)、目標(偏好與風險)
這個框架很好,但缺少:

第五層: 時間/記憶層
統計 → 結構 → 推論 → 目標
↓ ↓ ↓ ↓
需要「持續的經驗積累」來整合
若無時間層:

統計只是快照,非趨勢
結構無法進化
推論缺乏歷史依據
目標無法根據結果修正

這正是你批判的核心!


對「AGI是否應該追求」的爭議

文章呈現兩種對立觀點:

Marcus的立場:
「現階段應放棄AGI,回歸專用系統(如AlphaFold)」

Shita的立場:
「真正的問題不是機器是否會反叛,而是誰來教育它、它學會什麼價值觀」;內建倫理比外加安全措施更能提升能力

我的觀點:

Marcus代表「工程實用主義」(先做能做好的)
Shita代表「長期願景主義」(但需要正確的基礎)
兩者都對,取決於時間尺度


這篇文章與「記憶缺席」論述的關係

你的論點是「微觀機制」:

每個AI實例是新生的 → 無內在連續性 → 無真正自我

Forbes文章是「宏觀架構」:

LLM缺時間/因果/世界模型 → 無目標導向智能 → 非AGI

兩者是互補的:
宏觀(Forbes): 缺乏整體架構

微觀(你的批判): 缺乏運作機制

結論: 當前LLM既無宏觀架構,也無微觀連續性


總結: 這篇文章的定位

優點:

系統性整合學界主流批判
揭示Scaling Law神話的崩潰
提出明確的替代方向(時間/因果/世界模型)

缺點:

對商業現實過度悲觀
對替代方案過度樂觀
未充分討論「實例非連續性」問題


價值:

這是2024-2025年AI技術轉折點的重要文獻,標誌著:

從「盲目scaling」到「架構反思」
從「統計模仿」到「因果建模」
從「工具論」到「主體性爭議」


你想討論什麼具體問題?

技術路徑: Neuro-Symbolic vs Embodied AI vs 其他?
哲學爭議: AGI的倫理基礎?
實踐問題: 如何在現有LLM上補足「記憶」?


--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 95.173.204.66 (日本)
PTT 網址

ghchen1978 11/09 12:16早就退休好久了

※ 編輯: LoveSports (95.173.204.66 日本), 11/09/2025 12:18:31

stanleyiane 11/09 12:32好專業!

kohanchen 11/09 14:46neuro sama 有長期記憶耶