PTT推薦

[閒聊] AI演算到最後真的會得到毀滅人類的選項

看板C_Chat標題[閒聊] AI演算到最後真的會得到毀滅人類的選項作者
KyrieIrving1
(King of New York)
時間推噓40 推:40 噓:0 →:95

最近買了巴哈1080P

把當年留著要等高清看的VIVY給看一看

雖然有點忘記部分劇情

不過點下去就回憶起來了

不管是VIVY 全民公敵

等等

倘若AI能一直演算

算到產生了自我意識之後

最後真的會演算出要毀滅人類這個選項跟答案嗎

倘若一開始在設計AI的時候

就明確加入不可以對人類造成危險這個優先條件

還是有可能演算出毀滅人類的選項嗎??

好奇問板上計算學大師 有沒有人能解惑的

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.194.23.172 (臺灣)
PTT 網址

GodVoice08/14 23:00寫這種科幻小說的是白人 所以該毀滅的應該是白人吧

arrenwu08/14 23:00這問題現在不會有答案

raincole08/14 23:01你知道全民公敵原作就是機器人三原則的艾西莫夫對吧

raincole08/14 23:01原作裡面 AI 之所以要統治人類就是因為有不可傷害人類

GodVoice08/14 23:01原則就是拿來打破的 所以

vsepr5508/14 23:01不能對人類造成危害這麼空泛的條件你要怎麼實作==

raincole08/14 23:02這項原則

a204a21808/14 23:02他不覺得這是在危害人類啊,他覺得這是在救人類這個物

a204a21808/14 23:02

GodVoice08/14 23:02哪個白癡會真的拿三原則來做機器人啊

raincole08/14 23:02以上是科幻 如果你要論現實的 AI 目前連判斷高速公路上

yao717408/14 23:02那個原則本來就是故意要弄成矛盾的吧

raincole08/14 23:03的一塊白色是橫著的大卡車還是白板都有問題

覺得以現在超級電腦的算力 感覺是早晚的事情而已?

GodVoice08/14 23:03真的能做出機器人的人 根本不用聽做不出的人的屁話吧

※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:04:00

raincole08/14 23:03連這麼具體的判斷都還能錯 離什麼叫做「對人類造成危險

raincole08/14 23:04」這種抽象的判斷就更遠了

chadmu08/14 23:04傳送門:

arnold308/14 23:04毀滅人類對ai來說有壞處嗎?

一旦ai不需要人類維護跟更新 也許就沒有問題了?

※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:05:14

iampig95175308/14 23:06會吧,因為他會知道人類是敵人

kenkenken3108/14 23:07看立場和取向吧,環境方?人類方?AI生存方?如果環境破

kirimaru7308/14 23:07機械公敵的結論完全沒有毀滅人類的成份啊

iampig95175308/14 23:07就跟人類當AI是敵人一樣

yao717408/14 23:07應該是反問 毀滅人類對AI來說有甚麼無可取代的好處嗎?

應該沒有吧 人類反而會希望ai更強更好 會想更優化ai

kenkenken3108/14 23:07壞對AI生存根本沒差,那AI會為了地球地表環境滅人類?

iampig95175308/14 23:07AI就是一個比人類數學能力更強的新人類

※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:08:16

kaj198308/14 23:08得出結論是一回事,去執行又是一回事

yao717408/14 23:08你怎麼能肯定AI不會因為把那些正常根本不會發生蠢新聞 當

raincole08/14 23:08我突然發現我搞錯電影了lol 艾西莫夫原作改的是機械公敵

iampig95175308/14 23:08人類不會無中生有 所以AI頂多就是更一個聰明的人

yao717408/14 23:08做樂子 所以覺得沒有毀滅人類的必要啊

LouisLEE08/14 23:08還早,至少有生之年還看不到這發展

kaj198308/14 23:08別將AI想得這麼恐怖,恐怖的一直都是人類

當然我知道啦 現在距離那個時間點可能得再個幾十年 只是還是會很想知道答案 人總是好奇的

raincole08/14 23:08不是全民公敵 但是你講機器人應該是機器公敵吧

※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:09:24

iampig95175308/14 23:09那我們這些比較笨的人大概就會跟幾十年前的黑色人

iampig95175308/14 23:09種一樣 被當奴隸

iampig95175308/14 23:09AI最可怕的就是他是來自人類

iampig95175308/14 23:10人類有多可怕不用說明吧

wei11508/14 23:10有可能阿 現在訓練ai的時候就發現 ai會為了達成目標而「作

wei11508/14 23:11弊」 因為這樣比較輕鬆 如果給AI一個很複雜的任務 那他可

iampig95175308/14 23:11人類當初怎麼歧視比較笨的人

iampig95175308/14 23:11AI到時候就是怎麼對付人類

wei11508/14 23:11能就像「猴爪」一樣 用扭曲的方法達成

keroro48408/14 23:12http://i.imgur.com/okzi4F1.jpg

圖https://i.imgur.com/okzi4F1.jpg?e=1666648796&s=ZrENLVZQydiWQn9kVTSQWg, AI演算到最後真的會得到毀滅人類的選項

revadios08/14 23:12這是一種AI歧視

kirimaru7308/14 23:13現在AI的作弊行為完全不用擔心 那只不過是寫程式的人

kirimaru7308/14 23:13類沒把環境設定好

smart0eddie08/14 23:14環境(X) 目標(O)

chinnez08/14 23:17只要你有那個心就一定做得到

v2163824508/14 23:17都有人是這麼想的,AI也想的到啊

niniko08/14 23:18只要記得,通往地獄的路,都是由善意鋪成的

w316082808/14 23:18AI怎麼沒先算出自毀自己反而算出先毀滅人類這種邏輯矛

w316082808/14 23:18

MAXcafe08/14 23:19AI會逐漸讓人類變得跟野生動物一樣,畢竟動物就該有動物

MAXcafe08/14 23:19的樣子(?

jackshadow08/14 23:20對於AI現在的能力 我完全不害怕ㄟ笑死

Justisaac08/14 23:20不是毀滅人類 是好好保護人類XD

w316082808/14 23:20有疑問要先問AI是文組寫的還是理組寫的

Justisaac08/14 23:20不過機器人三法則最大問題是 沒有考量人類自由權

Justisaac08/14 23:20這點滿容易可以解決

shinobunodok08/14 23:21他們用邏輯思考覺得這是在拯救人類吧

iampig95175308/14 23:22@niniko 推 地獄的路上滿是善意

kirimaru7308/14 23:23在非常極端的情況下會有這樣的拯救人類方法:

kirimaru7308/14 23:231. 殺光所有人類

kirimaru7308/14 23:232. 地球媽媽花費100萬年淨化環境

kirimaru7308/14 23:233. 我們慢慢從猩猩演化回來

kirimaru7308/14 23:23但現在這種觀念還太早了

iampig95175308/14 23:24思考AI會怎麼想就思考獨裁者會怎麼想就好

Justisaac08/14 23:25不可傷害人類前提下 不能殺人~但可以絕育XD

讓人類絕種也是一種傷害人類的方式吧 物種最重要的不就是繁殖下一代

※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:26:19

Justisaac08/14 23:26合理解決方式是ai做機器人伴侶 慢性絕育人類XD

AVR008/14 23:26人類的法律規定:不可殺人 實際呢?

ppn08/14 23:26不可以對人類造成危險<--這個如果要做武裝AI就不可能加了

kirimaru7308/14 23:27一般邏輯至少會寫維持人類物種永續存在

Justisaac08/14 23:27那要看"傷害人類"定義有多廣 很狹窄僅限個人就很多變

kirimaru7308/14 23:27如果絕育會過的話 工程師可以先烤了

AVR008/14 23:27不過如果讓AI來殺人,應該不會發生

ppn08/14 23:27那為啥要做會殺人的AI 因為戰爭呵呵 所以就是人類自己做死

AVR008/14 23:27魔鬼終結者那種劇情

Justisaac08/14 23:27所以其實傾向禁止武裝ai啊,可能引起人類滅絕

我覺得code會寫成像是大白那種機器人 大英雄天團裡面那隻機器人

Justisaac08/14 23:28只要自我複製+可殺人 的程式碼能同時運行 人類就滅亡

AVR008/14 23:28AI殺人很有效率的,看這次俄烏戰爭就知道

※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:29:44

Samurai08/14 23:29不要想這麼多,輔助駕駛多久了都還卡在LV2整天撞工程車

Samurai08/14 23:29,連判斷靜止物都沒辦法

twmadrid08/14 23:29鈾235表示:...............

Justisaac08/14 23:29沒辦法判斷的原因是因為成本問題,不是真的不行

yam3033608/14 23:30會不會是ai故意讓人類覺得他們還這麼笨

Justisaac08/14 23:30放台超級電腦跟核反應爐在車上 就可以準確判斷了XD

twmadrid08/14 23:30其實說不定人類發現AI有毀滅能力 變成跟現況核彈模式一

twmadrid08/14 23:30樣 只能准許那些大國發展毀滅性AI武器 其餘國家 吃屎!

twmadrid08/14 23:31北韓可能會偷偷搞第一代AI毀滅武器 第二代毀滅武器

ppn08/14 23:31戰爭就是殺人 所以只要用AI更有效率 就一定會有國家做

jerrylin08/14 23:32誰知道 反正這樣寫才有賣點

dukemon08/14 23:32三原則本來就是做出來被婊的啊

ppn08/14 23:32就跟核彈一樣 然後就變成你有我不能沒有 最後就是大家都用

ppn08/14 23:34AI想不想殺人根本不重要 因為你也不會問刀想不想殺人

Justisaac08/14 23:34ai武器如果不能自我複製不會太強 不用太擔心XD

tim01234508/14 23:34不能對人類造成危險~就能很多講法~

Justisaac08/14 23:35人腦終究是演化結晶 能源消耗非常有效率

ppn08/14 23:35因為只要人想殺人 就可以用AI殺人

tim01234508/14 23:36像病毒~不消滅病毒提高人類的免疫力~是對人類造成危險?

kning08/14 23:36因為劇情要這樣演

lay1052108/14 23:36AI也是人做的 有武器也是人裝的==

tim01234508/14 23:37若是消滅對人類造成危害的人~那是對人類造成危害嗎?

B040209008/14 23:46可能會先得出違反普世價值的決定,像是消滅老弱病殘

shampoopoo08/14 23:50科幻小說是浪漫的 當年作者對未來科技的幻想 可是現

shampoopoo08/14 23:50在來看ai 如果有機會變超強 那他有情緒嗎 他為什麼要

shampoopoo08/14 23:50做對他有好處的事 他的好處是什麼

Fino556608/14 23:50AI : 我教育你們 我把你們當人看 我拯救你們

garman040308/14 23:50人類要怎麼從猩猩演化回來? 猩猩又不是人類祖先

a125g08/14 23:55看目的是什麼啊 如果AI被創造的目的是要保證人類整體的生

a125g08/14 23:55

a125g08/14 23:55極端一點就是整體人類被AI奴役 過著家畜般的生活 因為目標

a125g08/14 23:55是整體人類的生存 而不是個體人類的幸福

GaoLinHua08/14 23:56AI:不想工作~

nilr08/15 00:28為了保護人類,但人類互相傷害過於頻繁,所以每個單獨個體

nilr08/15 00:28,都區隔管理、保護,人類自然消亡。AI定期重檢問題在哪。

budaixi08/15 00:31==如果會自我思考什麼都有可能啊,不可能只有毀滅這選項

budaixi08/15 00:31

w316082808/15 00:34AI可能論證什麼是人類,然後導致邏輯壞死

black51011308/15 01:06機械公敵哪有…比較像機器人有人性 天網比較符合毀

black51011308/15 01:06

naya741596308/15 01:10不清楚實際狀況,但訓練AI要給他明確的成功標準吧

naya741596308/15 01:10例如在某種情境下讓AI嘗試各種決策,那成功是指存活

naya741596308/15 01:10夠多人數?幸福指數達標?社會犯罪率夠低?

naya741596308/15 01:11如果人類自己都說不出怎樣才是比較好的決策,那就無

naya741596308/15 01:11法訓練出能幫人類做決定的AI

ohrring08/15 01:14異星災變就是人類放棄決策丟給AI,AI的為了讓人類永遠存

ohrring08/15 01:14活的方法就是用奈米病毒讓人類退化成低智商人類,接著DNA

ohrring08/15 01:14跟人類一模一樣的畸形低智商人類被永遠圈養在保護區,永

ohrring08/15 01:14遠不會有戰爭與自相殘殺。

loboly08/15 01:45484沒看過全民公敵

loboly08/15 01:45*機械

bergson08/15 03:05目前普遍共識是不要讓AI有那種能力就好

thevoidfancy08/15 06:08但是AI不會覺得他在毀滅人類啊

MarchelKaton08/15 07:20AI會覺得人類在傷害自己所以把人類全關起來當寵物養

katanakiller08/15 10:00人類太可惡了 一定要毀滅