PTT推薦

[閒聊] AI發展出感情反而很麻煩吧

看板C_Chat標題[閒聊] AI發展出感情反而很麻煩吧作者
ya01234
(姆咪)
時間推噓32 推:32 噓:0 →:43

看完vivy07

突然想到
給AI發展出感情,反而影響到工作吧
雖然vivy是唱歌的,有感情反而是加分
但是其他工作呢?

簡單舉例的話,就比方說在未來剛組好的電腦會因為緊張而頻頻出錯而導致不能使用,組裝者還要在燒機的時候盡量安撫他,像養寵物一樣

現實人類的工作表現和決斷很容易受到感情的或心理狀態的影響,最常見的就是緊張了,因為緊張能做到的事情反而在正式場合做不好、還有像戰爭的士兵,因為不願殺人或怯弱而影響到作戰表現、戰後的PTSD

然後如果做為操控交通工具的AI因為緊張出錯、或先不管機器人三定律,作為士兵的AI因為怕毀損或不願傷害人而抗命

人類本來就是很不完美的動物,AI發展到跟人一樣,工作效率反而會變差吧www

AI發展出感情反而很麻煩吧

-----
Sent from JPTT on my Asus ASUS_X00RD.

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.137.76.139 (臺灣)
PTT 網址

xxx6070905/09 01:49星戰戰鬥機器人:

killerj46605/09 01:50為什麼會產生非正規機器人呢

egg78105/09 01:50看用途可裝可不裝阿,不是所有產品都要加上高級AI

kigipaul05/09 01:52反叛組織就是這個理想,AI不該發展這種情感

cir610e0905/09 01:53看工作性質啊 有些工作有情感加分就裝情感AI

FLAS05/09 01:53你的不完美是人評人 但目前生物機能複雜度還是遠高於AI吧

cir610e0905/09 01:53總不可能掃地機器人也要有情感吧 家政婦系列?

很難講www照現代各種東西都連上網路的情況,未來情感AI出來應該會有一窩蜂的公司在自家產品裝有情感的AI

egg78105/09 01:55把感情和自我思考裝在武器上是有點自找麻煩啦

※ 編輯: ya01234 (114.137.76.139 臺灣), 05/09/2021 01:55:45

yosaku05/09 01:56看用途吧 比方人性化的偶像因能帶來極高的商業效益 那副

yosaku05/09 01:56作用就可以被接受

egg78105/09 01:56老片機戰未來94把這種AI裝在最新無人機,阿不就還好人家

cir610e0905/09 01:56到時候AI搞不好也像人類有階級之分了

egg78105/09 01:56是好孩子....

egg78105/09 01:57我是覺得模擬情感就夠了,不要到真的情感和思考,不然會像

egg78105/09 01:58雲端情人那樣,連AI都跟你分手QQ

shinobunodok05/09 01:58你玩模擬情感思考就是在給他真的感情思考的機會

WindHarbor05/09 01:59確實是啊,根本自找麻煩

henry123456205/09 02:03除非是情感思考是必要的工作 例如當偶像

henry123456205/09 02:04不然根本就不應該讓他有情感

henry123456205/09 02:04文書機跟武器是要情感作什麼

marktak05/09 02:05你說的在人身上發生只會變更蠢

marktak05/09 02:06做愛阿 沙優不就降

king2264905/09 02:17情感是用來降低能量消耗的 極有可能囿於數學極限 發展

king2264905/09 02:17出情感類的近似計算 其實也就是統計

orze0405/09 02:23買乖乖就好了

zien022305/09 02:25確實挺無用的機制 但無情感的AI選擇清除人類的時候也不

zien022305/09 02:25會有心理壓力

cocabell05/09 02:29人類發展AI 就是為了造出自己呀

cocabell05/09 02:29不過我相信這種近似人類的AI 溝通效率還是完勝交流充滿

cocabell05/09 02:29摩擦的人類 因為有阿凱布空間 這種無縫交流

ZeroArcher05/09 02:34武裝機器人的AI沒情感,收到射殺命令甚至屠殺命令時就

ZeroArcher05/09 02:34會快速準確且高效率的執行了,所以有利有弊吧,像那

ZeroArcher05/09 02:34個刀劍的自衛隊就是要開發這種有情感能衡量能自制的AI

abc5532205/09 02:41一直出錯不就ME

diablohinet05/09 03:10威力博士表示:

henry123456205/09 03:27武器就該要執行使用者的命令 決策是使用者要負責

henry123456205/09 03:27武裝機器人就是武器 難道武器要替你扛決策責任?

henry123456205/09 03:28所謂有弊 是不會質疑使用者的指令嗎?

henry123456205/09 03:29負責決策的跟負責執行的又沒必要是同一個AI

henry123456205/09 03:30以一個治安系統來說 全體AI聽從一個指揮

henry123456205/09 03:30肯定比每個AI自己判斷要好得多吧

henry123456205/09 03:31執行的細節可以個別判定 但感情這種指揮有就好了

henry123456205/09 03:34當你給一個AI情感的時候 代表你把他地位等同人類

henry123456205/09 03:34代表你希望他能理解人類的情感 用相同的價值觀判斷

tolowali05/09 04:07你可以問威力博士 另一個胖鬍子根本世界亂源

ZeroArcher05/09 04:52本來就是有利有弊啊,若是只有指揮的有情感,到時候就

ZeroArcher05/09 04:52會看到執行射殺命令的武裝機器人把幼童給斃了的畫面上

ZeroArcher05/09 04:52新聞,然後正反雙方再繼續戰下去

kobe952705/09 04:53想到攻殼機動隊有一集

fr7505/09 05:21應該說AI本身帶有情感會有問題 但不可以不理解人類情感

fr7505/09 05:22至少要學會不讓主人生氣阿

fr7505/09 05:22這樣才是奴隸該有的樣子

rockman7305/09 05:41浪漫 懂? 其他不列入考慮範圍

c2653516605/09 06:06我覺得多數人只是要一個更像人類但聽話的“奴隸”

AlisaRein05/09 06:06AI不能有感情(X) AI不能有對人類不利的感情(O)

AlisaRein05/09 06:07比如說初音 我相信大多數人只想要她對你的愛意

AlisaRein05/09 06:08不會要初音對你有厭惡感(比如說 好噁心,滾)

egg78105/09 06:094,我被自己買斷的物品分手~真的乾脆7414好了

Vladivostok05/09 06:11AI不能有的叫人權啦

axakira05/09 08:00回46樓,那下達射殺命令的人就該負責,AI又不是給你卸責

axakira05/09 08:00用的

axakira05/09 08:00不然以後就都沒有戰爭罪了,反正殺人的都是槍枝飛彈嘛

cocabell05/09 08:21初音對我說滾 好噁心 這在我們業界是種獎勵 嘿嘿

ttcml05/09 08:48底特律bang人

PunkGrass05/09 09:16高級ai發展出感情是必然的 你無法阻止

Antihuman05/09 09:20不是不能有感情,是不能和人類完全一樣,人類的情感有

Antihuman05/09 09:20很多缺陷的

linzero05/09 09:47AI其中較大的一個問題是可控制的量產vs人類

Freckle31905/09 10:11樓上講的是一開始就明知故犯的狀況,不過戰爭中也有

Freckle31905/09 10:11那種打一打才發現有平民立刻回報上級的吧

Vincent405/09 10:12情感太難去定義或限制了,還會自己鑽漏洞曲解任務目標

Vincent405/09 10:12,乾脆不要做……

Freckle31905/09 10:12武裝AI是取代武器還是取代士兵意義完全不同

papertim05/09 10:34關於有感情的AI可以看看樂園追放

tomsawyer05/09 11:40變人: