Re: [心得] 蘋果揭露人工智能並不思考
大語言模型(LLM)它的原始目的是要「模仿人類回答出人類看得懂的答案。」
但跟人類的語言不同,你我使用的與言語表達會是一系列的文字規則,
例如「主詞,動詞,受詞」的SVO結構。
但模型本身並不是這樣學習的,它是把你看到的字,拆成詞素(token)
然後將這些詞向量化,變成一系列數列:
king → [0.8, 0.1, 0.3, 0.7]
queen → [0.9, 0.1, 0.5, 0.9]
man → [0.9, 0.0, 0.3, 0.6]
woman → [0.8, 0.0, 0.5, 0.8]
這個數列可以很長,例如有必要的話,可以到有300多個。然後模型可以找到特徵。
這個特徵用人類可以理解例子,就姑且濃縮成一個角度,便為說明就簡化成:
king=右上 man=右上
queen=左上 woman=左上
那麼就算是你,也可以找到king跟man都是右上,故似乎有關連性。
而king跟queen角度不同,所以這兩個不是同樣的東西。
再把朕、殿下、皇帝、國王,排在一起。
只要資訊夠多,理論上是可以讓模型自己圈出有向量角度相近的集合。
我們可以再增加這個字出現在字首、字尾、中間第幾個字的頻率作為變數。
那麼就可以算出這個字出現在哪裡的特徵比較大。
這時我們回到剛剛的SVO結構,模型就可以在不懂中文,但憑統計出的特徵,
可以拼湊出一個你可以看懂的中文回答。
然而這並不是人類的理解與語意判定,以及衍伸的推理。
所以它就會造就出「中文房間」的錯覺,例如假設一個外國人被關在房間。
但他有一本教戰手則,上面說明了那些字出現了,可以給出哪些答案。
那他就算不懂中文,在手冊的指引上也可以回答定型文。
大語言模型也是同樣的概念,它是基於大量的資料來找出「特徵」,
而這些特徵的組合在在它的神經網絡會給予特定的權重,最後形成類似"手冊"
的東西,然後依照手冊找到近似值的解答,生成給你看。
但它不見得是理解回答是否有意義,所以才會出現錯誤。
比如說很常見的,現在threads被一堆詐騙仔用AI生成圖片,
例如啥我是護理師給我一個讚好嗎?但裡面的圖片會出現一些錯誤,
例如敘述自己是75年出生,但生成的身分證是57年出生。
或者有生成名字了,但它的字型大小很明顯不一致。
然而對於模型來說,它不會知道"怎麼樣才是對的格式",而它只是針對
中華民國身分證大概是長怎樣,而隨機生成一個結果。
故單純直接產出,就免不了會有以上的問題。
GPT4-O3它是說有多一個推理功能。然而它的底層還是大語言模型(LLM)
加上它的數據處理是弄成很長串的多維資料,你人類也看不懂,
所以你還是不會知道,它的推理過程,是不是也是模仿生成人類看得懂的邏輯。
但這個算法是否正確與必要,不見得正確。
這個問題在你處理只有你會面對的數學問題就有機會發生。
例如假設你要模型生成一個模型由0至指定最大值,與指定最小值機率遞減,
而機率遞減的分配公式,正常我們人類就是設一個權重來分配。
但我問過O3它就很奇葩,它想用自然常數來分配,然後算式會出現錯誤。
其他你看過的就是GPT跟deepseek下西洋棋,結果deepseek憑空出現棋子,
或者無視規則走奇怪的動作。這些都說明了語言模型並不是真的了解規則,
而只是像兩隻猴子看人類下棋,而模仿人類玩西洋棋。
由於這不是你熟知的建立規則(base rule),所以在面對複雜的隨機模擬。
它可能做出錯誤的資訊,而你沒有發現錯誤的話,它就會繼續引用上下文
而給出錯誤的結論,但你看起來覺得是對的。
比如說你不會選擇權,但你想要模型直接生成一個賣方與調整策略。
而模型基於call有正的delta,而錯誤認為sell call也有正dela,
那它就會繼續基於錯誤資訊引用,而得出:
當標的價格趨近於SC履約價,整體delta會變正而且增加,故需要買put調整的規則。
當然對我來說我可以看出哪裡有問題,但對於沒有理解的人來說,
那他就不會發現這個推理與建立規則錯誤,就會導致利用而產生虧損。
而這我認為基於大語言模型的訓練方式,本質上是無解。
你只能靠自己判斷模型的回答是否邏輯正確。而不是期望模型像神燈精靈,
你不用會你也可以產出一個東西跟專業的人競爭。
--
人類的建立規則是靠五感的回饋機制不斷修正而來,但
LLM只能靠文字
目前AI只負責生成,不負責對錯
LLM 講白 只是接受很多數據 然後連連看 哪個規律最
高 最匹配就用哪個 不是真正 thinking 根本不是AG
I的方向 一旦碰到的東西沒這數據 就當機了 沒有學
習及糾錯能力 跟人腦差距還是太大
我比較認同Ilya的看法 目前的LLM甚至 MLLM只是一種
基於語意的壓縮世界模型 離真正的世界模型還差的遠
目前的模型,等老黃賣到G2兆時看能不能突破
alphago下棋就沒這種問題
生成式AI就大騙局,非人類進步方向
生成式AI的概念可能只是人類思考的一部分而已
講的好像別人跟你說一句話 你是先拆成主詞 受詞...
再去理解分析的
其實大量的迴歸與收斂,最後答案都會越來越正確,
只是在於有沒有人校正什麼是錯誤什麼是正確。AI本
來就不應該完全與人類相同的思考模式發展,否則就
不可控了。讓AI限縮在LLM的極致與正確性,或許對人
類是一種安全的選擇。
短時間內LLM還是要依賴Scale AI這類公司做資料清洗
、修正跟媒合血汗打工仔幫忙打標籤 沒有工人智慧就
沒有你現在看到的人工智慧
目前人們要的就是想要一個酷東西 他們才不會在乎後
面到底是統計模型 還是真的會推理 包括整個行業可
能也不想戳這個東西的真相
蘋果的論文可惜的是他發表的時間讓他們很尷尬 只有
被討罵的份而已
現在的Ai被包裝的很好 會有讓用戶認為他們是全能的
但可能要小心其實會錯大 包括整理資料跟分析講結
論
用戶事後都要去驗證 但新的問題又來了 當你習慣什
麼東西的丟給這樣的模型去幫你做整理 你要核實數字
的難度就會變高
因為藉由Ai你獲得了一個極佳的槓桿 你甚至可以一次
做的工作量變得以往多好幾倍
但也丟出很大的工作量給Ai 你無法有限的時間核實A
i給你說的數據是否正確 最後你會鬼遮眼選擇忽略會
發生這個問題的事實
(之前拿某個模型來分析資料 看了模型在推理過程直
到他崩潰/幻覺,不難想像如果這樣的東西要在蘋果手
機上,我看某個用戶可能因為某個原因發生嚴重問題
我看集體訴訟就來了
14樓,不然呢?還是你以為你可以在主詞受詞動詞都搞
不清楚的狀態下就能理解一個句子?
隨便問個簡單問題都略過萬數量詞了XD
@24樓,你可以藉由他有十倍百倍工作量,但你沒有十
倍、百倍的驗證能量,所以錯誤就成了必然
你還沒能力預防、控制這個“錯”,會不會出在什麼巨
大的地方
看起來背後就一堆線性代書運算
所以線代真的超重要的,從來不會退流行
6歲小孩根本沒聽過主詞受詞這些概念 還不是聽得懂人
話
人家有爸媽天天跟他練英文,你有嗎
而且美國的小孩一樣要上英文課
現在token embedding dim不是2048起跳嗎= =
有點概念了,有點像人類識別顏色座標,相近的顏色座
標相近;但是色弱的座標相對狹窄。
詞性只是能更複雜地形容精確的狀態 不然只有名詞也
是能描述
這篇描繪的算蠻深入淺出
沒辦法很多猴子覺得AI會思考人類要毀滅了
這篇很專業了,LLM基礎就是模糊性,才適用語言交流
,拿來算數學容易錯誤
不是算數學容易錯,而是這玩意容易驗證,對就對、錯
就錯,生成其他文本類,錯了你也看不出來
實際上它的架構、答案生成方式,就決定他做什麼都是
容易出錯
專業推 讚讚
AI弄個網格交易工具可以 要玩期貨可能有難度
我喜歡台大教授李宏毅的說法 大家都說AI只是找機率
最大的排列組合成句子 不是思考
但人類大腦何嘗不是這樣操作 同樣是計算出最有可能
的答案
LLM只是像大腦裡面掌管語言的區塊 模仿的功能跟字
彙更強一點 我們也是從小透過學習文法跟單字可以拼
湊出語意暢通的句子 LLM就像模仿片語的巨量化 而觀
察小朋友還牙牙學語時 早就有思考邏輯能力了 AGM真
的還早
推
台灣填鴨教育教出來的也沒好多少
寫代碼跟畫圖好用,因為是人類創造有邏輯規則。但
無法普及現實世界,因為現實轉換向量過於複雜。
AI思考方式就跟人腦一樣,至於容不容易出錯,很難
定義,現在讓AI寫考卷,已經贏一大票學生了
推這篇 現在的AI跟人們幻想的AI根本是兩回事
推
長知識了
謝謝分享
我猜那個推理也是偵測到關鍵字call function而已xD
推本篇
對於AI與機器學習來說自有資訊分析與呈現的方式
目前模型跟人類真正的資訊分析呈現方式並不相同
LLM只是盡可能讓結果與人類語言類似
好文
這些模型分析追求的是最大可能性 並不能保證正確
從google搜尋的角度來看 這是更好用的智慧型搜尋
然而 這還不是有可靠度的任務代理人
推 所以大型語言模型才有幻覺問題
所以我搜尋東西還是盡可能用傳統搜尋引擎
不管你說的對不對,人家已經打趴9成人類的工作,該
慶幸機器不能像牛馬一樣負責任扛包,不然哪還有工
作給你做
線代...死去的記憶在攻擊我
9成...要吹也別這麼誇張 連大部分低端工作都還不能
做你跟我說9成
所以需要對齊啊
其實我忘了在哪個地方看過 底層是靠機率在排出答案
的這個模式 並不一定是錯的喔 想想看 這世界基本是
量子力學所組成的 量子力學本身就有隨機性
所以代表這個世界的基礎 其實也是建立在機率之上
那為什麼量子能達到現在這樣「看似」普通的穩定態?
答案就在量子的規模 夠巨大 隨機性被降到極低 就沒
事惹 這也是為何奧本海默團隊有人就計算到 核彈是有
機率燒掉整個大氣層 連鎖反應停不下來 但很低而已
LLM用機率當底層也沒什麼關係吧?出錯的機率夠低就
好了 簡單說 方向就是把算力當量子 他X加爆就對了
蘋果的不行不代表別人的也不行
人腦可能就是這樣思考的
人類大腦的預測能力屌打LLM
LLM確實是統計機率並不會思考,但這就必經的路,不
是說,這沒用,我不要研究。那你蘋果乖乖滾下去吧
如果智慧的本質就是這樣呢?
LLM 現在辦到的就是我家鸚鵡會的
推解釋
社群媒體狂洗某隻股票利多 就是一堆人會去買 誰說A
I不如人 AI插電就學習 串越多學越快 取代5成人類
認知很難嗎
用這麼久AI 要由人判斷正確不是很明顯嗎 一堆說專
業要被取代就覺得好笑 講這種話的AI都沒用過幾次吧
推推
驗證這個狀況只適合擁有專業的人來執行,對外行人
來講,不論是透過ai給答案,還是自己翻書湊答案,
無法保證兩邊都能對,此時ai因為被問過同樣類型的
問題次數多,ai的答案方向或許還比自力學習來的可
靠
ai並不是在創造解答,但一般人遇到的問題多半都是
另一個人每月每年都在處理的,ai只是在各領域吸收
每月每年都在處理的例行公事,回答提問人
標籤這件事就代表工人智慧
靠吹AI欺世盜名撈錢的共犯結構沒那麼容易放棄
加上戰爭的因素,給了他們能最大化剝削資源的機會
操弄恐懼
如一年前提過,過度投資的泡沫會比想像中更快到來
長期使用下來的心得:只利用他的統計特性減少我找
尋某一種全新知識的時間 至於他能不能直接解決問題
通常 不能
就連詐騙集團都認爲LLM做翻譯 裡面的文法都不一定
是常用或合理的
數值運算證明了 只要他不call python來算,他的回
答是基於數據裡面某一種類別的資料的解題過程來湊
答案 就好比一個沒唸書的學生為了應付考試 題目什
麼他就到處看書的東湊西湊只求這題能寫點什麼
他的狀況很像阿里巴巴全球數學競賽醜聞 那位被老師
當分身帳號使的少女
她根本無法解題 只是受老師指示抄給她的答案送上去
要她真的理解根本不能 因為她連某些公式符號是什
麼都不知道
寫程式碼這件事只能說更離譜 因為特性的關係 程式
碼都是掰的(LLM特性)
就好比你在stackoverflow發起一個問題 結果回答你
的人 解決方案都是想像出來的 他也跑過
也沒跑過 (這個部分大概要解決 只能要讓ai想程式
碼的時候 要同步出你的環境條件 藉由不間斷的試錯
他可能才勉強真的驗證過回答是正確的
但實現上困難 簡單環境可以 複雜一點他的運算資源
會反向被濫用或DDoS別人
人思考過程也是一樣啊,根據學習經歷去找出能解決
問題的方法,只是目前模型沒這麼全能
目前LLM是能解決某些問題 但是他的一開始的架構就
已經決定他的極限在哪
人類學習過程會試錯 得到經驗
LLM是抄題仔 他的答案是沒有被驗證過的
模型學習本質就是試錯得到經驗,也一樣
另外模型訓練過程,資料會分成驗證組,不是沒驗證
如果他要為他的答案負責 大多數你大概會寧可關掉視
窗 因為非常慢 運氣好他陷入幻覺你要的答案根本你
等不到
為什麼Scale Ai這間公司很重要 因為數據來源跟有沒
有做好整理就大多決定了模型的能力
我認為現在研究團隊應該就是趁這個時間在熱度的高
峰 拿到投資人的錢看能不能解決LLM的真實痛點
人也是一樣啊,唸了國文課本但去考數學一樣爆炸XD
在這之前大家都會盡可能拖就拖
嗯。~我只想表達LLM真的離通用Ai真的蠻遠的 但也
因為這個東西的誕生 人們之間的資訊落差 的確有改
善
推
推
推
問題是現在有一個軍備競賽強迫一大部分的資源錯置
這個方向並沒有錯 只是單用這個方法走不到終點而已
你的中文很不通順,外國人?
對答案
語言是離散的有限的,真實世界是連續的無限的
數位資料的離散性就注定AI永遠不能真的思考
推
推推
爆
首Po看到一個影片,非新聞報導,僅創作者想法 討論蘋果揭露關於人工智能當中的最大謊言 之前也看過一個影片指出 AI無法產出指針在10:10以外的手錶![[心得] 蘋果揭露人工智能並不思考 [心得] 蘋果揭露人工智能並不思考](https://p16-sign-va.tiktokcdn.com/tos-maliva-p-0068/o4LfaEAbvSdAleefUAAA4aFxvfTANdCxALQihf~tplv-photomode-video-share-card:1200:630:20.jpeg?dr=14555&refresh_token=e9192c61&x-expires=1781535600&x-signature=Q%2FzWQ3Qk0Uwsbisl4NOj8U%2BEB%2BE%3D&t=4d5b0474&ps=13740610&shp=55bbe6a9&shcp=9dfa7f7f&idc=my2&ftpl=1)
14
目前與論是這篇測試方法有問題... @@ 旁邊吃瓜中 不過作者裡面有Samy Bengio 是AI三巨頭 Yoshua Bengio的弟弟 他們蘋果在去年底之前也發過類似風格一篇 說LLM推里有問題9
這不是常識嗎??? 你用LLM最常看到的不就免責條款 你有沒有想過 為什麼那些免責條款需要存在 僅僅是因為現在技術力不足???![Re: [心得] 蘋果揭露人工智能並不思考 Re: [心得] 蘋果揭露人工智能並不思考](https://i.ibb.co/KxjdpPQS/Screenshot-2025-06-16-05-59-00-273-com-openai-chatgpt.jpg)
26
1. 首先 , 蘋果是最沒資格說話的 先看看蘋果AI的鳥樣 2. 蘋果 : 人工智能不能思考 這句話有很大的問題 現在的AI主流是經由大量資料訓練4
發完原文之後,我嘗試讓gemini模擬自己是嬰兒 一個一歲的嬰兒,他什麼都不懂 然後我把圍棋組放到他眼前,他會做出什麼反應? 首先他用狀聲詞咿咿啊啊搭配敘述構成畫面 我提示他並沒有溫度、軟硬、數量、大小任何概念5
蘋果要讓AI變強當然是難 不然siri早變強了 蘋果要找AI毛病當然是容易的多 其實改進AI的人也常常發現各種毛病 只是不一定會針對毛病作為研究成果發表 發表側重點不一樣罷了1
問題是人類大腦難道就不是這樣思考的嗎? 大腦也是區分語言模組 負責特殊功能的區塊受損 可能導致聽得懂 說不出來 看到懂 卻聽不懂4
我覺得大家對AI要求過多了 設想一個情況 中餐的廚師 他們如何學習廚藝? 答案是21
是這樣的 蘋果這一步棋其實是下對的 只專注在用戶體驗上 從10年前開始 從電動車 元宇宙 到AI4
我是覺得固然當前系統基礎上有一些問題存在,但不妨礙它仍舊具有一定基礎能力 反正都是演進階段,不如說只是先理解缺陷然後嘗試解決的過程(當然蘋果怎麼想我不知道) 就當前階段來說就已經略具破壞性了,啊如果還"更有能力"... 反正我是跟不上 以下偏題,一些感想![Re: [心得] 蘋果揭露人工智能並不思考 Re: [心得] 蘋果揭露人工智能並不思考](https://i.meee.com.tw/Z7DOmvi.png)
56
Re: [閒聊] AI畫圖是不是大數據拼圖?我嘗試來簡單圖解一下 AI生成圖的概念 因為 1. 想要簡單解釋 2. 我不是本科生 請板上各位高手不吝指教 不過別太嚴格 見圖一 首先,我想要從向量空間開始講起![Re: [閒聊] AI畫圖是不是大數據拼圖? Re: [閒聊] AI畫圖是不是大數據拼圖?](https://i.imgur.com/5QxQiV2b.jpg)
23
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據各家互相參考, 指的是訓練方法還有訓練的文本挑選, 蒸餾不太一樣 AI = 模型的程式碼+訓練 能開源的部分只有程式碼, 訓練是看各自調教 模型的能力夠, 差不多的調教方式就會得到差不多的結果 訓練方法更好, 或是文本品質越高、越多樣、量越多, 模型就越強![Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據 Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據](https://i.imgur.com/ey5mX61b.png)
9
[問卦] 為什麼頂尖科學家會怕chatgpt?安安 GPT不過是由大型語言模型來驅動 可以根據收集到的海量資料庫來辨識和生成文字最終產出一個回答 就這樣而已 為什麼一堆頂尖電腦科學家都像看到鬼一樣8
[問卦] 沒人發現AI的出現 我們已經離永生不遠嗎?是這樣的 魯哥今天看了一期影片講GPT 其中說到GPT所生成的每一個字 是像玩接龍的方式由資料庫的所有文字檔 經過大語言模型預測 & 人類反饋強化來獲得 例如:8
Re: [新聞] 專訪杜奕瑾:DeepSeek被炒作過頭阿肥外商碼農阿肥啦! 這幾天都在休假陪老婆本來懶得說什麼,但這咖就沒什麼料,還覺得自己是專家。 Deepseek R1真正的貢獻就是在方法論上證明讓大語言模型直接走真正的RL去鼓勵模型生成 思考鏈的格式以及讓模型去想更久就會出現語言模型的啊哈時刻(AHA moment),而且是無 論模型的大小只要強化學習給模型指導規則讓AI模型持續接受指導跟環境學習模型就會在某![Re: [新聞] 專訪杜奕瑾:DeepSeek被炒作過頭 Re: [新聞] 專訪杜奕瑾:DeepSeek被炒作過頭](https://img.youtube.com/vi/5bgeHE3rI8M/mqdefault.jpg)
6
[問卦] 沒有言論審查的 DeepSeek R1 模型登場!沒有言論審查的 DeepSeek R1 模型登場!推理能力甚至一樣強 Perplexity AI 公布震撼消息,宣布釋出全新的「R1 1776」模型;簡而言之,它是中國 廠商所開的 DeepSeek R1 的延伸版本,但經過後訓練消除言論審查機制,能夠針對敏感 議題,例如台灣獨立提供事實回答,模型權重已上線 Hugging Face 和 Sonar API。 遵守中共規則,DeepSeek 不回答敏感言論6
Re: [問卦] ChatGPT改變了什麼行為模式?行? : : 業都發揮著重要作用,對許多人的生活產生了深遠影響。我想請問各位前輩,究竟Ch at : : T改變了哪些行為模式呢? : : 希望大家能分享一些寶貴的經驗和看法,讓我對ChatGPT及其對社會行為模式的影響![Re: [問卦] ChatGPT改變了什麼行為模式? Re: [問卦] ChatGPT改變了什麼行為模式?](https://img.youtube.com/vi/Q_pH-dhU8QM/mqdefault.jpg)
4
[問卦] AI的湧現能力以及人類智慧的起源最近AI很夯 但是大家有沒有想過 其實大型語言模型做的事情就只有一個 就是“文字接龍” 那為什麼文字接龍可以讓AI看起來似乎有了智慧![[問卦] AI的湧現能力以及人類智慧的起源 [問卦] AI的湧現能力以及人類智慧的起源](https://img.youtube.com/vi/iP_7y6n2IFo/mqdefault.jpg)
3
[討論] 研究揭開DeepSeek弱點:三心二意最新研究揭示: 在遇到高難度問題時 DeepSeek推理大模型可能像三心二意的學生一樣頻繁切換解題思路 而因缺乏深入探索而失敗2
Re: [閒聊] Neuro真的有辦法做到理解圖像嗎大型語言模型本質上是文字接龍 你說的話會通過tokenizer切成很多token後餵給模型 讓他預測下一個機率最高的字 當input是圖像時 你需要用一個資訊壓縮模型 把圖也壓成一串token 接下來做的事情就一樣了 把這串濃縮feature token餵給模型 搭配你說的其他話 來預測下一個字 重複到出現一個完整的回答為止
爆
[請益] 0056可以這樣操作嗎![[請益] 0056可以這樣操作嗎 [請益] 0056可以這樣操作嗎](https://i.imgur.com/z8X13Bfb.jpg)
爆
Re: [心得] 山椒魚盤勢觀察![Re: [心得] 山椒魚盤勢觀察 Re: [心得] 山椒魚盤勢觀察](https://i.mopix.cc/LLOj00.jpg)
62
[情報] 114年12月05日 三大法人買賣金額統計表![[情報] 114年12月05日 三大法人買賣金額統計表 [情報] 114年12月05日 三大法人買賣金額統計表](https://i.imgur.com/roBWXt2b.png)
54
[情報] 2344 華邦電 114年11月營收![[情報] 2344 華邦電 114年11月營收 [情報] 2344 華邦電 114年11月營收](https://i.mopix.cc/JF4BB2.jpg)
54
Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性![Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性 Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性](https://img.youtube.com/vi/H_suOWdYLq0/mqdefault.jpg)
38
Re: [新聞] 川普希望美國製造全球5成晶片 賴清德紐![Re: [新聞] 川普希望美國製造全球5成晶片 賴清德紐 Re: [新聞] 川普希望美國製造全球5成晶片 賴清德紐](https://i.imgur.com/maDWxU7b.jpg)
29
[情報] 3443 創意 11月營收16
Re: [新聞] Fed主席大熱門哈塞特表態:下周應降息 預17
[請益] 第一金最近有什麼大事要發生嗎?![[請益] 第一金最近有什麼大事要發生嗎? [請益] 第一金最近有什麼大事要發生嗎?](https://i.mopix.cc/vMDTOu.jpg)
15
Re: [標的] 記憶體族群回檔 彎腰撿鑽石多![Re: [標的] 記憶體族群回檔 彎腰撿鑽石多 Re: [標的] 記憶體族群回檔 彎腰撿鑽石多](https://i.imgur.com/MO9jzZjb.gif)
13
[情報] 日本兩年期公債收益率升至1.03%13
Re: [請益] 0056可以這樣操作嗎29
Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性11
Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性22
Re: [新聞] 川普希望美國製造全球5成晶片 賴清德紐7
[情報] 2548 華固 10月營收 MoM 702% YoY 37447%![[情報] 2548 華固 10月營收 MoM 702% YoY 37447% [情報] 2548 華固 10月營收 MoM 702% YoY 37447%](https://i.meee.com.tw/gQ7aplg.png)
8
[情報] 1205 上市投信買賣超排行
Re: [請益] 0056可以這樣操作嗎4
Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性![Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性 Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性](https://i.imgur.com/4uwgTa3b.png)
3
[情報] 2383 台光電 11月營收1
Re: 00641R 富邦日本反1 小單多
[情報] 工紙族群多
[標的] 2454聯發科2330台積電 哪個好![[標的] 2454聯發科2330台積電 哪個好 [標的] 2454聯發科2330台積電 哪個好](https://i.imgur.com/TbK5aJcb.jpeg)
[情報] 2317 鴻海 2025年11月營收
[請益] 說AI會跟.com一樣泡沫化是假議題吧?![[請益] 說AI會跟.com一樣泡沫化是假議題吧? [請益] 說AI會跟.com一樣泡沫化是假議題吧?](https://img.youtube.com/vi/e0CJBzGa0hQ/mqdefault.jpg)