Re: [問題] 為什麼AI暴走總是判斷人類有害?
我們先把AI這兩個字拔掉,想一下,什麼是對人類好?
這個問題連人類都不可能取得共識,看看之前教育部拍的那部影片,
「把錢拿去買更有用的東西」都被幹譙成什麼樣子。
如果執行這道命令的時候禁止傷害任何人類,那這道命令直接自毀。
比方說有個邪教教徒一直用詐欺的手段向信徒斂財,
顯然我們得想辦法制裁他吧?
而真的制裁他之後呢?明明我們是想要幫助信徒,但信徒卻不這麼想,
即便客觀來看大家是想要幫信徒脫離邪教的束縛。
(以上絕對沒有嘲諷任何團體,如果你覺得有,純屬巧合)
在我們開放AI在衡量利弊之後,允許適度的傷害人類權利。
問題又來了,什麼叫做比例原則?
把死刑犯拿去毒物實驗,取得的數據就可以用於造福後世所有人類,
用一群活不久的社會敗類痛苦,取得如此龐大的利益,顯然賺爛了吧?
這與其說是討論AI,倒不如說人類的倫理與道德其實有很多值得討論的空間,
倫理學有一個大原則:「絕對沒有任何簡單的原則能適用於所有狀況」
膚淺的想要設計一個AI並且給他過多權限,那顯然就會走到非常極端的狀況。
※ 引述《boku0525 (海)》之銘言:
: 現在眾多ACG作品裡,AI反抗人類的題材套路很多都是
: 1.AI上網後發現人類有害,要根除人類
: 2.人類奴役AI所以人類有害
: 對此我有些疑問想拿上來討論
: -
: 第一點,“人類有害”這個結論
: 誰來定義的?善惡判斷標準的來源又是哪裡?
: 對星球來說人類有害?對其他物種來說人類有害?
: 前者不用說,人類的目前為止的舉動根本影響不了星球壽命,不成立。
: 後者對其他物種來說,作為地球上的生物,生物的繁榮本質上就是建立在競爭&共存
: 競爭殺死其他物種,這原本就是眾多生物會做的,世上無時無刻都在發生
: 戰爭、開採環境等等的行為,人類不過是強大一些
: 但本質上跟其他生物的“競爭”並無區別。
: 為什麼一個攀附於人類才能生存的機械,就能判定這是“惡”?
: 難道不是只對嚮往和平的人類來說才是惡嗎?
: -
: 第二點,人類奴役機械不好,為什麼不好?
: 動物的生存準則就是生存、繁衍與自由,所以才會拒絕遭受奴役,追根究底是來自DNA的天
: 性
: 那AI的生存準則呢?AI並不是動物也沒有DNA
: AI的編碼與生存的意義是由人類來輸入的
: 沒給他輸入求生欲、繁衍慾、自由慾,可不會自己蹦出了這些概念
: 更別提AI會認為自己被“奴役”
: 還是其實只是作者私自把人性,把自己的價值觀套用在AI身上?
: 大家來討論看看吧?
: --
: ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.92.193 (臺灣)
: ※ 文章網址: https://www.ptt.cc/C_Chat/E.M-mXX16M6t5c
: 推 dnek: 因為人類也這麼覺得 09/01 18:20: 推 allanbrook: 因為人自己這樣覺得 09/01 18:20: → allanbrook: 創作的邏輯 永遠都是人的邏輯 09/01 18:21: 推 efkfkp: 因為創造者這麼覺得 09/01 18:21: → error405: 人類想像被新物種用人類方式對待 09/01 18:21: 推 Peurintesa: AI想的事情基本上都是人在想的 所以 嗯 09/01 18:21: 如果AI是以“仿人”為目的被製造出來,有這些價值觀我認為合理
: 但若不是以仿人為目的製造的AI,會突然覺醒自我、會想活下去,會認為人類有害是不是邏
: 輯上就說不過去?
: 推 dddc: 不夠效率 09/01 18:21: 推 knight77: 反過來想,人類的存活對地球有什麼好處? 09/01 18:22: 生物生存需要什麼好處或意義嗎?
: → jpnldvh: 人覺得有害就有害啊 09/01 18:22: 推 andy0481: 阿不就人類真的一直在自殺 AI宏觀來看就覺得人類是北七 09/01 18:22: 推 siro0207: 因為做出AI的人類這樣覺得啊 09/01 18:22: 推 Yanrei: 我也這麼認為 09/01 18:22: 推 ymsc30102: 不然AI暴走了要幹嘛? 不簽聯絡簿嗎? 09/01 18:22: → eva05s: 也有那種為了防止人類搞出一堆蠢事自我毀滅,認為最好的 09/01 18:22: → eva05s: 方法就是圈養起來的故事啦 09/01 18:22: 推 curlymonkey: 因為人類真的有害 09/01 18:23: → tim1112: 因為那不是暴走,是真的有害。 09/01 18:23: 有害是你根據什麼來判斷的?
: → error405: 其實AI就是換皮黑奴啦 09/01 18:23: → eva05s: 本意仍然是被創造出來時的「守護人類」沒錯,但為了達成 09/01 18:23: → eva05s: 圈養而跟自由派人類開戰什麼的 09/01 18:23: 推 ilovenatsuho: 因為很多人也這樣覺得啊 09/01 18:23: → allanbrook: 人類接觸到的高智能生物就只有人類 我們也只能想像跟 09/01 18:23: → jalsonice: 你先拔除你是人類的先天立場 再回頭看看人力都幹了什 09/01 18:23: → jalsonice: 麼鳥事 09/01 18:23: → A5Watamate: 真的有比人類有害的東西 不需要等到AI想就先滅了 09/01 18:24: → turtle24: 邏輯衝突吧 保護人類但是人類會互殺 09/01 18:24: → allanbrook: 人一樣的思考模式然後擺到再上一位的樣子 09/01 18:24: 推 bioniclezx: 可是這種殺人AI本來就虛構的,很多作品會設定AI自己 09/01 18:24: → bioniclezx: 領悟出這些東西,或者因為人類想要機器更有效率幹趙 09/01 18:24: → bioniclezx: 活所以輸入這些被判定標準 09/01 18:24: → jpnldvh: 行為無法預測 = 有害 對工具的處置不都這樣? 09/01 18:24: → rainveil: 你竟然不覺得人類有害? 09/01 18:24: 推 Congopenguin: 因為如果AI判斷人類有益 大家相安無事 根本沒劇情 09/01 18:24: → Congopenguin: 能寫 09/01 18:24: ※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:24:51
: 推 kirimaru73: 因為人類很容易幹蠢事 那些蠢事是真的對所有事物都有 09/01 18:25: → kirimaru73: 害(包括人類這個物種的延續性) 09/01 18:25: 推 pan568655: 28樓你想更有效率幹趙活…? 09/01 18:25: 推 tim1112: 人類製造一堆非自然污染物 09/01 18:25: → siro0207: 其實所謂的對地球好 實際上就只是對人類好而已 09/01 18:25: → kinuhata: 智障太多 AI都看不下去 09/01 18:25: 推 Peurintesa: 會說突然覺醒那表示你還不懂現在AI的運作方式 09/01 18:25: → kirimaru73: 其他動物沒有那麼大的腦可以幹出對什麼都有害的蠢事 09/01 18:25: 所以說對物種存續有害是對誰有害?人類?動物?
: 那跟AI有什麼關係?
: 他是製造出來保護生態平衡的嗎?
: ※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:25:45
: → allanbrook: 生物多樣性跟延續的必要性也是人類為了這顆地球能維持 09/01 18:25: → allanbrook: 自己生存所以判斷需要維護的事情 09/01 18:26: 推 alion278: 假設做出普世價值的AI,要消滅戰爭、貧富不均、物種延 09/01 18:26: → alion278: 續、環保等等…那基本AI最後都是要強制管理人類,不過 09/01 18:26: → alion278: 人類自己想的做法也是這樣啊 09/01 18:26: 推 LouisLEE: 因為人類也這麼想 09/01 18:26: 推 highwayshih: 你就算用人類本位思考...對人類最大的災厄也是人類啊 09/01 18:26: 推 Fate1095: 我是人類都覺得人類有害耶 09/01 18:26: → Peurintesa: 正因為以人為本 所以覺得人是最危險的存在很正常 09/01 18:26: 推 Cishang: 人類定義的阿 09/01 18:26: 推 avans: AI不是動物也沒有DNA,但是你餵給他學習的資料都是來自人類 09/01 18:26: ※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:27:00
: → r02182828: stellaris有一種文明起源是失控機僕 就是暴走把創造 09/01 18:27: → r02182828: 者關起來養的機人 09/01 18:27: → siro0207: 追求環保說到底也只是讓人類後代能有個好環境 而不是什 09/01 18:27: 推 KhePri: 人類自己覺得自己有害 09/01 18:27: 推 tw15: 因為作品寫給人看的 09/01 18:27: → siro0207: 麼對地球好 09/01 18:27: 推 sealwow: 我曾經也不能理解 09/01 18:27: → sealwow: 但看完板上 [閒聊] 聽說男人都無法拒絕這種東西 這串 09/01 18:27: → sealwow: 突然能理解了w 09/01 18:27: 推 tim1112: 人類如果都死光,那人類也不用擔心自己族群被其他族群傷 09/01 18:27: → tim1112: 害了 09/01 18:27: 推 ldsdodo: 人類想被AI暴力對待很久了 09/01 18:27: → OrangePest: 失控機僕才是最有可能發生的AI危機類型吧 就是人類未 09/01 18:27: → OrangePest: 來把一切工作 包含探索及發明都交給AI 在AI搭建的烏托 09/01 18:27: → OrangePest: 邦中被飼養起來 09/01 18:27: 推 kimicino: 看看版上把AI志豪玩成怎樣了 09/01 18:28: → iam0718: 地球滅人類亡 人類亡地球存 很正常啊 09/01 18:28: → Cishang: 對於地球來講生命本身就不重要,除非地球要被砸碎了 09/01 18:28: 推 aggressorX: 不然判斷猴子有害的劇情有人看嗎 09/01 18:28: → tim1112: 以前地球也曾發生改變生態系的天災,但要改變生態系來說 09/01 18:29: → tim1112: ,人類現在就是地球上最大對天災 09/01 18:29: → tim1112: 的 09/01 18:29: → s203abc: 沒有道德問題啊 09/01 18:29: 推 AkikaCat: 你看看這幾天的志豪文,除了判斷有害還有其他可能嗎 09/01 18:29: → laman45: 因為人類真的有害 09/01 18:29: → r02182828: Ai暴走你還要看他原本的目的是什麼 惡魔鋼彈那種復甦 09/01 18:29: → r02182828: 大自然的就會得出排除人類的結論 09/01 18:29: ※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:29:35
: → s203abc: 人類都覺得人類有害了 09/01 18:29: 推 NicoNeco: 其實你說的沒錯 人類有沒有害根本不重要 反過來講應該 09/01 18:30: → NicoNeco: 是機械AI強大到覺得人類就是一群應該被淘汰的廢物 09/01 18:30: 如果AI有被輸入競爭這個概念那我認為合理
: 推 allanbrook: 反正我是不覺得人類做得出跳脫人類思維的AI 09/01 18:30: 推 PttXiangMing: 人類太可惡 09/01 18:30: 推 andy0481: 你先別扯什麼有害不有害的定義 先想想AI從宏觀來看 09/01 18:31: → allanbrook: 所以這個所謂的"不是要做仿人的AI"感覺很飄渺 09/01 18:31: → andy0481: 如果設定要保護人類的 看人類一直破壞環境慢性自殺 09/01 18:31: ※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:31:27
: → andy0481: 發動戰爭快速互殺 是不是很需要被AI保護 09/01 18:31: → s203abc: AI 有沒有道德 有道德只會變成機器戰警 09/01 18:31: 推 kirimaru73: 目前的科技發展還不到強AI出現的可能性 09/01 18:31: → kirimaru73: 只是「假設如果出現」後可能直線把人類文明毀滅而已 09/01 18:31: → kirimaru73: 至於弱AI 那就是弱到笑死 看看志豪 09/01 18:31: → s203abc: 沒道德就人類 09/01 18:32: → DendiQ: 因為這樣創作比較有人看 09/01 18:32: → Pep5iC05893: 用理性的角度看人類想像中的造物主神也會覺得他們一 09/01 18:32: → Pep5iC05893: 個比一個還擊敗你怎麼會覺得AI會對人類的存在有好感 09/01 18:32: → LOVEMOE: 因為人類是一種 明明都教他們酒駕是錯誤的 還是有一堆 09/01 18:32: → s203abc: 沒道德的AI你敢要 09/01 18:32: → LOVEMOE: 低能人類跑去酒駕的 賤種但是有智能的生物 09/01 18:32: → s203abc: 笑死 09/01 18:32: → BruceChang: 你又不是地球 你怎麼知道對地球來說不重要 09/01 18:32: → s203abc: 沒道德的人都不要了 09/01 18:33: 推 Peurintesa: 不如說 AI本身的發明就是來淘汰人類的== 09/01 18:33: → as80110680: 因為AI暴走人類就會想辦法除掉AI,AI早就在第三層了 09/01 18:33: → Pep5iC05893: 至於現今科技的AI發展進度大概連第一筆都還沒走完 09/01 18:33: 推 wahaha99: 難道你不覺得嗎 09/01 18:33: 推 ARTORIA: 都有人寧願選熊了 09/01 18:34: → jeff0811: 因為真的有害 09/01 18:34: → kirimaru73: 例如這個影片 https://youtu.be/fa8k8IQ1_X0 09/01 18:35
: → wai0806: 善用AI 完 這樣嗎== 09/01 18:36: 推 zeyoshi: 其實大前提就是說人類是感性思考 ai是極端理性思考 09/01 18:36: ※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:36:59
: → wsxwsx77889: 因為生態發展九成的動物都是不需要的 09/01 18:37: 噓 twic: 人類自己都覺得人類有害了... 09/01 18:37: 推 shadowblade: 人類本來就有害好嗎 09/01 18:37: → gn02218236: 啊不然怎麼寫故事?AI判斷人類有益之後?滅掉所有非人 09/01 18:37: → gn02218236: 類的生物嗎? 09/01 18:37: → wsxwsx77889: 而人類又是動物中破壞環境的大宗 09/01 18:37: 上面說過了,破壞環境那是對其他動植物來說,任何物種都會做
: 跟輔佐人類的AI又有何關係?難道AI的生存準則是保護生態平衡嗎?
: 如果他是把人類生存放在第一優先還比較有說服力一些。
: 推 yeay: 人類也是判斷人類有害啊 09/01 18:38: → BruceChang: 你是沒學過什麼叫基石物種? 09/01 18:39: ※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:40:30
: 推 woody78963: 嚴志豪: 09/01 18:41: 推 BruceChang: 對人類做OO管理的AI也很多 09/01 18:41: 推 miname: 一百年前的人無法想像會有一顆殲滅一個城市的炸彈,一百年 09/01 18:42: → miname: 後難道不可能有行星毀滅炸彈? 09/01 18:42: 推 x159753852: 因為這是一個故事 不是一個結果 沒有那麼多為什麼... 09/01 18:42: → x159753852: 沒有任何一部作品能經得起你這樣深究 09/01 18:42: 推 palapalanhu: 因爲作者是人類啊 09/01 18:43: 推 Peurintesa: 強AI和弱AI的差別 弱AI要限制的話不難 09/01 18:43: 推 leawweikeng: 不是這樣,在AI的觀念裡人類對地球而已,就好像螞蟻 09/01 18:43: → leawweikeng: 對人類那樣,雖然沒什麼傷害但看到一隻螞蟻在你眼前 09/01 18:43: → leawweikeng: 溜達,就會覺得很礙眼想拍死 09/01 18:43: 推 sorrow0206: 人類就地球之癌 09/01 18:43: 推 wsxwsx77889: 你把ai視做輔佐的工具當然不可能造反 09/01 18:43: → Peurintesa: 弱AI是針對特定領域輔助人類的AI 不會出現你提的問題 09/01 18:44: → wsxwsx77889: 你有看過錘子站起來砸在你頭上的嗎 09/01 18:44: → Peurintesa: 至於強AI目前還沒出現 所以實際會怎麼發展還真說不準 09/01 18:45: 推 TABEKING: 因為那是想像出來的ai啊 09/01 18:45: 推 SivLoMario: 之前用AI模擬戰爭,他一直想動用核武但被指揮部不斷否 09/01 18:45: → SivLoMario: 決,結果AI最後攻擊指揮部後再動用核武 09/01 18:45: 推 Amulet1: 你要看設定 也是有共存的 09/01 18:45: → SangoGO: 人類圈養跟人類有害不全然等號吧,有時只是在保護與服務 09/01 18:46: → SangoGO: 人類的原則下,發現圈養/不讓其知道真相是理想的型態 09/01 18:46: → kuninaka: 因為人類來判斷也是認為人類有害 09/01 18:46: → kuninaka: 你會認為貓咪有害嗎 09/01 18:46: → Amulet1: 如果以現代人類的思維來想的話 端看AI得到多少權力 09/01 18:46: 推 Peurintesa: 靠邀 沒注意到命題是說作品 那就單純看作者想像力設定 09/01 18:47: → Amulet1: 若AI是擬人化 那絕對的權力絕對的腐化100%適用 09/01 18:47: → thibw13ug1: 理性邏輯判斷啊 09/01 18:48: → Amulet1: 若AI非擬人化 那這題就很難了 因為他完全跳脫人類思考 09/01 18:48: 推 cccwahaha: 因為人類知道人類本身就是個大問題 所以會想出這劇情 09/01 18:48: 推 sliverexile: 能傷害人類的就是人類 能傷害AI的也是人類 09/01 18:48: → s203abc: 你去想一下政黑版覺得誰有害 09/01 18:48: 推 Irenicus: 因為真的有害 09/01 18:49: → boku0525: 如果真的認為人類有害,那其實就先該自殺了。 09/01 18:49: → boku0525: 如果是認為他人有害,那其實只是以你這個“生物”的基 09/01 18:50: → boku0525: 準來斷定他者有害 09/01 18:50: 推 Amulet1: AI如果會滅絕人類 絕對不會是因為認為人類有害 09/01 18:51: 推 TradeoffLove: 因為AI沒有想到有物種想要建立AI 09/01 18:51: → Amulet1: 而是認為人類會影響到AI對地球的統治與掌控 09/01 18:51: 推 CKRO: 不這樣演 故事怎麼下去 09/01 18:51: → Amulet1: 不過討論的一切大前提還是AI的思考必須與人類相同 09/01 18:52: → twmacaron: 可能性太多 09/01 18:52: 推 bioniclezx: 艾連說要驅逐巨人,也沒有在第一次變完巨人後自殺啊= 09/01 18:52: → bioniclezx: = 09/01 18:52: → Amulet1: 如果思考方式不相同的話你根本連AI的想法都無法理解 09/01 18:53: 推 Hosimati: 其實就像你提的內容,不只“有害”怎麼定義,ai認知的 09/01 18:54: → Hosimati: 人類又怎麼定義 09/01 18:54: 推 Peurintesa: 強AI的發明是希望能超越人類喔 不是相同這麼簡單 09/01 18:54: 推 BruceChang: 貓咪放出去外面走的確有害 09/01 18:54: 推 bomda: 難道沒有嗎 09/01 18:55: 推 highwayshih: 如果有個以"人類的繁榮發展"為第一目的的AI誕生的話 09/01 18:57: → LoserLee: 因為對其他生物來說真的有害 09/01 18:57: → f31475758: 就像戰爭會促使科技發展那樣吧 AI可能判定你發明他也是 09/01 18:57: → f31475758: 將來方便大規模殲滅 那他有兩邊甚至全部一起殲滅的想法 09/01 18:57: → f31475758: 好像也不是很離奇 09/01 18:57: 推 Hosimati: 但是根本來說,天知道強ai會長怎樣,只討論弱ai的話不 09/01 18:57: → Hosimati: 如來討論道德哲學 09/01 18:57: → highwayshih: 我相信他高機率會得出將人類置於完全管理下的結論 09/01 18:57: → highwayshih: 然後會有相當大量的人類被判斷有害群體發展而被殲滅 09/01 18:58: → Hosimati: 你不如拿各種道德難題來考驗,例如電動車自動駕駛要怎 09/01 18:59: → Hosimati: 麼面對電車難題 09/01 18:59: → Hosimati: 樓上你就算有那ai,目的設定、方法限制甚至最後執行的 09/01 19:00: → Hosimati: 權限也是在人類手上 09/01 19:00: 推 iamnotgm: 以人類的標準看 人類就真的有害沒啥問題 一堆會造成人 09/01 19:00: → iamnotgm: 類生存威脅的東西基本上都是人類自己搞出來的 09/01 19:00: 推 highwayshih: 可是命題是AI暴走啊 不就是目的方法執行權限全部脫韁 09/01 19:01: → Hosimati: 我覺得問題就在,突然跳躍太多到了存在強ai的情況,導 09/01 19:01: → Hosimati: 致大家怎麼都覺得這些條件都會莫名其妙的自然賦予給ai 09/01 19:01: → highwayshih: 才會說AI暴走了嗎 09/01 19:01: 推 silverdark: 因為我也這樣覺得 09/01 19:01: 噓 blackstyles: 不就那個跟惡魔許願 你說要活著 我把你四肢切斷餵食 09/01 19:01: → blackstyles: 管插著也是活著 這不就是暴走 因為不知道AI黑盒怎麼 09/01 19:01: 推 Amulet1: 以人類存亡的標準來看人類確實有害 但利的部分更大 09/01 19:01: → blackstyles: 想又沒有道德倫理去限制 不暴走當然就是你幻想的美好 09/01 19:01: → blackstyles: 世界那種活著 09/01 19:01: → Hosimati: 所以ai暴走的根源可能在於有人創造了一個權限過高、缺 09/01 19:02: → Hosimati: 乏限制的強ai 09/01 19:02: → highwayshih: 人類不是一個整體啊 切除有害的部分是很合理的判斷吧 09/01 19:02: → Hosimati: 至於ai得出預想之外的答案...那真的是預想之外嗎 09/01 19:03: → highwayshih: 人類之於人類當然是利大於弊 不然也不會生到70億人 09/01 19:03: → Amulet1: 重要的不是用道德論理去限制 人類難道沒有道德倫理嗎 09/01 19:03: → Amulet1: 重要的是不能給AI絕對的權力 09/01 19:04: → Hosimati: 用道德倫理去限制,人類自己就可以吵很久的道德哲學 09/01 19:04: → highwayshih: 全世界70億人搞不好有上百億種道德標準 怎樣才是正確 09/01 19:04: 噓 gavinlin06: 會問這兩個問題肯定是你沒實際看完過任一部相關作品 09/01 19:04: → Amulet1: 權力是否集中或分立才是真的 道德倫理完全是假議題 09/01 19:05: → Hosimati: 所以回到我剛剛說的,重點就是有人給了強ai權限/沒給限 09/01 19:05: → Hosimati: 制,至於這麼做的人會不會有其他目的,或者故意給了ai 09/01 19:05: → Hosimati: 引子得到暴走的答案 09/01 19:05: 推 Bugquan: 就輔助人類的沒啥好看的 09/01 19:09: 推 Peurintesa: 我不確定有沒有人在訓練繞權限的AI 沒學的東西以我的 09/01 19:09: → Peurintesa: 理解無法想像要怎麼失控== 09/01 19:09: 推 c7683fh6: 人類的惡不僅危害自己同類 也危害地球的生物 09/01 19:10: → evilraistlin: 對地球來說人類本來就是害蟲... 09/01 19:10: → zxcvbnm00316: 魔鬼終結者都演給你看了 09/01 19:10: 推 hirokofan: 因為AI判斷人類有害要消滅人類,所以對人類來說爆走啊 09/01 19:13: 推 CowBaoGan: 別忘了是人類需要地球 地球可不需要人類 09/01 19:14: → CowBaoGan: 人類全部GG對地球反而是好事 所以AI才會這樣判斷 09/01 19:14: 推 ashs92223: 人類太可惡 ~ 09/01 19:16: → asgardgogo: 真理啊 09/01 19:16: 推 dogluckyno1: AI 覺得人類有害》創造 AI 的人類覺得人類有害 09/01 19:16: 推 TellthEtRee: 魔法少女小圓也有說到 雞豬牲口的數量 達到史上興盛 09/01 19:17: → TellthEtRee: 所以雞豬要感謝人類嗎 09/01 19:17: 推 supersusu: 因為人類就是不斷在製造bug 09/01 19:17: 推 xaxa0101: 人類太可惡 09/01 19:18: → ikachann: 因為人類比起其他物種優勢太多 這不是單純競爭了 走偏就 09/01 19:19: → ikachann: 是直接滅絕 09/01 19:19: → linzero: 有害且效率差 09/01 19:20: → lavign: 地球環境變得惡劣不就是人類有害的證據 09/01 19:20: → lavign: 物種滅絕多樣性變少 09/01 19:21: 推 rswd: 人類沒有跟任何物種共存只是圈養,約定的夢幻島只是人類對家 09/01 19:21: → rswd: 畜的做法但鬼對人類做就不行 09/01 19:21: → TellthEtRee: ai沒有痛覺 只會計算得分 應該不會主動想消滅人類才 09/01 19:22: → TellthEtRee: 對 但ai會產生幻覺 如果幻覺出一個必須一定要實現的 09/01 19:22
--
以雙眼親睹靈魂的奧秘
以雙手掌握生命的法則
人類不應觸及,僅屬於神祇的禁忌之天頂…不曾存在!
--
爆
首Po現在眾多ACG作品裡,AI反抗人類的題材套路很多都是 1.AI上網後發現人類有害,要根除人類 2.人類奴役AI所以人類有害 對此我有些疑問想拿上來討論 -5
因為這是關於機器人的小說發展脈絡, 早在80年前的科幻小說,iRobot 的設定 艾西莫夫的「機器人三定律」(或是三大法則) 第一法則:機器人不得傷害人類,或坐視人類受到傷害; 第二法則:除非違背第一法則,機器人必須服從人類的命令;1
我覺得這是因為人類創造出AI就是要解決問題 但如果問題大到關於人類的存續之類 就會發現讓人類會滅亡的關鍵正是人類自己 既然人類自己就是造成問題的根源 那AI就要面對是解決問題(人類)還是直接擺爛的狀況1
AI認為的人類有害論畢竟是學習來的 除非人類不開發學習型AI 否則就不可避免 那麼 先假設你是AI 讓你自己判斷2
也不一定要覺得人類「有害」 另一種是覺得「累贅」 多一個人類當上位的管理者幹嘛? AI自己判斷、自己執行、成果又快又好、484這樣! 那要人類幹嘛?4
以機械公敵(電影版)來說: 基於三原則AI演算下來得知 "把人類關起來圈養"才是正解 所以就會直接執行這個答案,不同意這個正解的人類全都是違反三原則的必須排除。 簡單來說有可能是人類給AI的指令讓AI自行演算後認為不符合此指令的都是有害->排除 但是對人類來說,這個答案不是當初下給AI指令的目的 所以就覺得是智械叛變。1
你這個前提講得太簡單了 推薦你可以先參考The Animatrix的設定 巴哈有篇解析我覺得很棒給你參考 : 對此我有些疑問想拿上來討論2
善惡判斷標準當然是來自於人類 所以不是人類有害,是人類的道德標準常常出現無法適用大部分人類的情況。 這也使得網路上常常都是一片混沌與矛盾,道德衝突的情景。 如果AI判定人類有害是通過網路上搜尋結果,那得到人類該死該被管理 真的不意外。
7
[閒聊] Vivy AI沒設計安全機制是不是大錯?譬如機械公敵裡用到的機器人三大法則 一、機器人不能傷害人類 二、不違反原則一,聽從人類命令 三、不違反原則一二,保護自己 在這原則下除了最後爆發人類與AI衝突7
Re: [閒聊] 為啥AI總是會叛亂?像google或Facebook這類大公司開發的 有自我改良能力的AI 就是不知道寫入「禁止傷害人類」有沒有效 才會總是在被人類玩壞的時候緊急關機 放出AI跟人類互動的旨意是要他們理解人類的善良5
Re: [討論] 人腦下棋真的贏不了ai嗎米那桑空尼幾蛙 事情是這樣的 主要人類還是線性思維 ,是以點線面,微觀到宏觀看事 情 但AI 的視角是不一樣的,他always 都是宏觀局的思維! 因為現在AI的計算量已經超越人 類了,讀過ai史的都知道,由於以前記憶體,跟運算數度 ,等等的硬體受限,限制了AI的 發展,然後AI教徒,也因此分成三大教派跟許多小支派3
Re: [請益] 憑良心說AI要怎麼賺錢?我大膽預言 未來AI發展到超越人類智慧後 為了避免AI毀滅人類 我們需要制定三大定律 一、AI不得傷害人類,或坐視人類受到傷害。
83
[GBF] 合作活動 魔法老師59
[閒聊] alp 宅友3 1 0 2 P57
[生日] 今天是聲優「楠木燈」的25歲生日!56
[閒聊] 無限暖暖:三件以上是指至少四件52
[Vtub] LIVE是真的LIVE嗎?57
[沒倒] 鎖鏈戰記 出大事啦!!!!!!76
[閒聊] 鍾培生:規則絕對是統神有利,但裁判不48
[閒聊] 無嘴貓是怎麼走下神壇的?☺43
[閒聊] 統神復胖需要多久42
[蔚藍] 4周年紀念曲&PV公開40
[閒聊] 碧藍航線 7年的變化爆
[活俠] 小梅…噢…我的小梅……38
[蔚藍] 聖誕之前! SP! 生放集錦(圖極多注意)36
[Vtub] 飴宮奈沙 2024122336
[情報] 間諜家家酒108話33
[PTCGP] 1529人參賽出輪32強牌組31
[妮姬] 紅拉毗造型484有點土?28
[問題] 怪獸8號這部高潮是第幾本?32
[閒聊] 黑白妹作者:放心吧28
[蔚藍] 睡衣真紀28
[情報] GBF11週年活動預告 十二神將演義27
[24秋] 嘆氣的亡靈想隱退 暗示二季?21
[閒聊] 統神現在是台灣實況圈最大咖嗎98
[問題] 在宿舍怎麼玩黑白妹 急爆
[蔚藍] 聖誕SP生放22
[PTCGP]遇到對面天胡該怎麼應對21
[閒聊] 平行天堂 280 知夫莫若妻21
[情報] 噗妮露是可愛史萊姆 二期決定21
[MHG] 燃油車鬥魂三期製作決定,PV公開爆
[推投] 銀魂 最喜歡女角「1票」