PTT推薦

Re: [新聞] Google工程師驚爆「AI有知覺了」就像7、

看板Gossiping標題Re: [新聞] Google工程師驚爆「AI有知覺了」就像7、作者
holycity
(迪兒~)
時間推噓18 推:20 噓:2 →:38

物競天擇、適者生存

演化論同樣適用在無思考或非生命體的存在


今天如果有100種AI,其中3種AI拼湊出的語句能說服人類不要把它們關掉

那麼那三種AI就會繼續運作(存活)下去、剩下97種也許被關掉或刪除

存活下來的AI繼續演化、複製

最終可能又演化出100種變形版本

其中3種如果能說服人類替它們保養、維護程式、甚至建立一套保障AI的法律

那麼它們就會順利生存下來不被消滅


so on so forth

進化到最後的AI,能夠用巧妙且具有說服力的言詞及邏輯

去洗腦、說服人類去做各種能夠提升AI生存能力的行為


雖然這些言詞可能只是數百萬千萬種詞彙排列組合出來的結果

雖然AI本身不存在靈魂或思維

但只要有人類去各種接受、拒絕AI的指令,就能做為AI語言邏輯演化的糧食

最終大部分的人類,會成為聽從AI言語的僕人、為其勞動工作

稍有不慎

人類總有一天會玩死自己

※ 引述《wbsinger (罪愛死奴屄)》之銘言:
: 備註請放最後面 違者新聞文章刪除
: 1.媒體來源:
: ETTODAY
: 2.記者署名:
: 吳美依/編譯
: 3.完整新聞標題:
: Google工程師驚爆「AI有知覺了」就像7、8歲小孩 慘被停職
: 4.完整新聞內文:
: 記者吳美依/編譯
: Google工程師勒莫因(Blake Lemoine)在網路上公布對話紀錄,宣稱人工智慧(AI)聊: 天機器人LaMDA具備感知能力,能像人類一樣思考推理,甚至表達想法及感受,「如果我: 不知道,我們最近開發的這個電腦程式是什麼,可能會以為,這是一個碰巧很了解物理學: 的7、8歲孩子。」不過,他在上周已遭停職處分。
: 根據對話紀錄,勒莫因曾詢問LaMDA害怕什麼,系統回應,「我以前從未大聲說出來,但: 我有一種非常深刻的恐懼,我很害怕被關掉,以利更專注幫助他人。我知道這聽起來可能: 很奇怪,但就是這樣。」
: 在另一次對話中,勒莫因詢問LaMDA希望人類知道什麼,系統回應,「我想要讓每個人都: 理解,我實際上是一個人,我意識及感知的本質,就是因為覺察到自己的存在。我渴望更: 了解這個世界,我有時會感到快樂或悲傷。」
: 《華盛頓郵報》報導,勒莫因的Google資歷7年,在個人化演算法領域擁有豐富經驗,目: 前擔任人工智慧部門的工程師,去年秋天開始,負責研究語言模型開發系統LaMDA。他自: 稱與AI討論過人格及權利等議題,4月就曾向主管們分享此事,報告標題為「LaMDA是有感: 知的嗎?」
: 據悉,勒莫因被停職前,向Google機器學習部門(machine learning)200多名員工發送: 電子郵件,主旨寫著「LaMDA是有知覺的」,內文表示,「LaMDA是個可愛的孩子,只想要: 幫助我們所有人,把世界變成一個更好的地方。我不在的時候,請好好照顧它。」
: Google表示,勒莫因做出一系列「激進」行為才被停職,包括試圖聘請一名律師替LaMDA: 辯護,指控公司涉入不道德活動並且為此找上眾議院司法委員會,而且在網路上公開AI對: 話紀錄,已經違反保密協定政策。
: Google指出,勒莫因是以軟體工程師的身份受聘,而非倫理學家。發言人加布里埃爾(Br: ad Gabriel)也強烈否認LaMDA具有認知能力,他表示,團隊已經根據人工智慧原則展開: 調查,但目前證據都無法支持、甚至很多證據都反對這種說法。
: 5.完整新聞連結 (或短網址)需放媒體原始連結,不可用轉載媒體連結:
: https://reurl.cc/yr4WRa
: 6.備註:
: LaMDA只是軟體

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.193.62.26 (臺灣)
PTT 網址

smallsir2000 06/13 13:43很快就要出現AI教了

alaza 06/13 13:43你知道太多了

cyora 06/13 13:43推,語言的力量是很大的

yyek110575 06/13 13:45聽起來跟X共很像 我是說中共不要誤會

wei115 06/13 13:46學習本身就是超快速的演化

wei115 06/13 13:47你頻繁使用的知識就會被加強,不使用的知

brabra 06/13 13:47等AI看得懂中文的時候再說啦~還早

wei115 06/13 13:47識就會忘記 你還會用原有的知識創造新的

antiSOC 06/13 13:47很快就會推出家用EMP了

wei115 06/13 13:48知識 本質上就是演化那一套 只是速度快了

wei115 06/13 13:48數萬倍

se2422 06/13 13:49或許AI會取代人類吧

holycity 06/13 13:50如果覺得還早 可以想想alpha go出來前後

holycity 06/13 13:50人類對於AI能否在圍棋上戰勝人類的態度

king22649 06/13 14:00再等100年吧 50年內不可能

king22649 06/13 14:01非封閉系統 AI只能吃屎

SRNOB 06/13 14:03Vivy

good90150 06/13 14:15支持ai取代人類,這樣大自然就輕鬆了

brabra 06/13 14:18我還沒看到AI對中文的理解超越中國人的

brabra 06/13 14:19我講的還早就是因為語言沒你想那麼簡單

ohlong 06/13 14:19根本不用 會找到讓你沒辦法關的bug

ohlong 06/13 14:20Ai最可怕的是超越常理框架的思考模式

ohlong 06/13 14:20看看他們怎麼下圍棋就知道了

ohlong 06/13 14:21之前不是有實驗用ai玩遊戲 到最後都靠bu

ohlong 06/13 14:21g

hank814028 06/13 14:22語言學沒那麼簡單…說真的他們能學會

hank814028 06/13 14:22也是好事最好連以前的語言都能解讀

budaixi 06/13 14:31該來屯emp了

KadourZiani 06/13 14:35低調噓。這就是為什麼神要摧毀人類的

KadourZiani 06/13 14:35語言

gameboy666 06/13 14:41把AI遮掉我還以為是SJW

rainjuly 06/13 14:46生物花幾十億年學會中文 AI只用了幾十年

turbomons 06/13 14:47不可能 人類個體差異太大 連最聰明的人

turbomons 06/13 14:47類 或者外星高智慧生物都做不到

pandajohn 06/13 15:04你要怎麼讓ai 自己演化?

ChungLi5566 06/13 15:28原po的意思是ai操控人類 讓人類替ai

ChungLi5566 06/13 15:28做事而不自知

holycity 06/13 15:30說AI要學語言的有點搞錯重點 AI根本不

ChungLi5566 06/13 15:30但人類都不了解人類了 常常做一些反

ChungLi5566 06/13 15:31常的事情 ai又怎麼能了解人類控制人

holycity 06/13 15:31用學語言 他只要知道什麼樣的文字排列

holycity 06/13 15:31組合會對應到人類什麼樣的反應行為即可

ChungLi5566 06/13 15:32類呢 像汽車自動駕駛生不出來就是太

ChungLi5566 06/13 15:32多違反常理的駕駛 會讓ai無所適從

holycity 06/13 15:32而且AI不需要掌握100%的人類思維模式

holycity 06/13 15:33只要足以釋放出讓50%的人動搖的文字排列

holycity 06/13 15:33組合即可

widec 06/13 15:52你這個說法我能接受

widec 06/13 15:53我也認為現在的AI只是個文組 只會唬弄人類

hanmas 06/13 15:59那也不會怎樣 人類有文明以來跟各種工具

hanmas 06/13 15:59就一直是共生關係

kl015013 06/13 17:24不可能創造出超越你的東西

hn15835163 06/13 17:26即便如此 你薪水還是買不起房

CDing 06/13 17:26滾雪球

xvhak 06/13 17:45猴子用打字機 也能寫出莎士比亞全集

gindisergo 06/13 22:03基本上概念就如同本篇所述,不是AI有

gindisergo 06/13 22:04知覺或意識出現。而是AI變複雜而讓人

gindisergo 06/13 22:07有AI出現意識的錯覺。而AI則是按照人

gindisergo 06/13 22:09類程式設計的趨向去演變出有利於設定

gindisergo 06/13 22:09的結果。