PTT推薦

[討論] 讀完現今LLM的運作邏輯後...

看板BaseballXXXX標題[討論] 讀完現今LLM的運作邏輯後...作者
Rosor
(我就是城武 別再問了)
時間推噓 6 推:6 噓:0 →:8

我發現我們距離真正產出一個「人」還是差得太遠了

光是目前LLM的算法就已經預示了要讓機器產生出價值觀基本上非常難

用機率分布跟加權的方式來決定下一個文字是什麼的這種方式

就代表LLM絕對會一直傾向產出最合乎邏輯且合乎她所學習的文本的回答

然而一個人的價值觀所帶來的獨特性 甚至是「我和別人相信的不一樣」的這種特性

就讓LLM完全沒辦法了 因為一個人的價值觀並不總是合乎邏輯的

更不用說如果我們想做出一個跟人相似的 可以行走 聊天 泡咖啡機器人
中間涉及到的問題也很多

道德 材料學 生物力學 甚至是最基礎的散熱都是大問題

只能說我們距離家家戶戶有一個會哄人睡覺的女僕機器人的時代還太遠了

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.25.4.94 (臺灣)
PTT 網址

ghostl4080908/29 21:55去汪梯徵人哄睡還比較快

terry020108/29 22:14可以用prompt engineering對LLM做一些暗示,讓它看起

terry020108/29 22:14來有自己的人格

martin12345m08/29 22:27一直都是這樣 從30年前的機器學習到10年前的深度學

martin12345m08/29 22:27習 本質上都沒有完全擺脫 回歸 機率 的特性

GooglePlus08/30 00:05可以調 topk topp temperature 阿 但也不代表什麼你

GooglePlus08/30 00:05所謂的價值觀

我當然知道可以調這些 但是這些只是調整最終文字的取用結果 不代表真的可以創建人格

※ 編輯: Rosor (114.25.4.94 臺灣), 08/30/2024 00:19:45

KanadeYu08/30 00:26我覺得其實人也一樣是被環境(文本)塑造人格的,差別大

KanadeYu08/30 00:26概是人類的文本大部分來自生活經驗吧,如果能搞出一個模

KanadeYu08/30 00:26擬人類社會互動的情境把ai丟進去,他們搞不好也能發展出

KanadeYu08/30 00:26價值觀之類的

KanadeYu08/30 00:27喔可能還要幫他們賦予一些慾望、目標之類像人性的東西

現在的語言模型跟專門用來角色扮演的LLM已經就在做這個了 只是這跟有真正的價值觀還差遠了 舉個例子:我在聊天機器人的人格中描述她是一個不離不棄鐵桿喵迷 如果我在與她的對話中說喵喵很爛 正常人類一定會否定吧:你怎麼這樣說我喵 之類的 但是LLM的問題就是在於你多刷個幾次 她就可能會回答:喔對阿對阿喵喵很爛 因為她的底層邏輯就是文字的合理與流暢性 而不是她的性格 在人格描述中寫的只是參考

※ 編輯: Rosor (114.25.4.94 臺灣), 08/30/2024 00:57:44

另外謝謝大家願意點進來推文 沒想到能在這邊問這種問題還得到不少回覆

※ 編輯: Rosor (114.25.4.94 臺灣), 08/30/2024 00:59:54

simon120308/30 08:50你怎麼會覺得人在地球幾百萬年的演化 只要短短一兩百

simon120308/30 08:50年的科技發展就能追趕得上