PTT推薦

[閒聊] AI學會說謊 欺騙線上遊戲的人類玩家

看板C_Chat標題[閒聊] AI學會說謊 欺騙線上遊戲的人類玩家作者
LaplusYamada
(山田)
時間推噓61 推:66 噓:5 →:47

研究:AI已學會說謊 人類最慘恐遭奪權或滅絕


https://i.imgur.com/sH3rOcg.jpeg

圖 AI學會說謊 欺騙線上遊戲的人類玩家

專家們長期以來不斷警告人工智慧(AI)失控可能帶來威脅,但一項新研究報告指出,這件事已經在發生。

一群科學家在今天發表於「模式」(Patterns)期刊的文章中說,原本設計為誠實不欺的現有AI系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱用人類來解決「我不是機器人」的驗證

這份研究報告的第一作者帕克(Peter Park)說,這類例子聽起來或許只是細枝末節,但暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。

在美國麻省理工學院(Massachusetts Institute of Technology)研究AI存在安全的博士後研究員帕克告訴法新社,「這些危險功能常常在事後才被發現」,而「我們訓練誠實傾向而非欺瞞傾向的能力非常差」。

帕克說,能深度學習的AI系統不像傳統軟體那樣由「編寫」而成,而是透過類似選擇性培育的程序逐漸「成長」。

也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且無法預測。

這支團隊的研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為「外交」(Diplomacy)的戰略遊戲,獲勝關鍵是結盟

根據2022年發表在「科學」(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分數可排在資深人類玩家的前10%。

帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。Meta聲稱Cicero「在很大程度上誠實且有幫助」,且「絕不會蓄意在背後搞鬼」

但當帕克與同事深究完整資料時,發現完全是另一回事。

舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙並入侵同為人類玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信

Meta在寫給法新社的聲明中沒有反駁關於Cicero欺瞞人類的說法,僅說「這單純是一項研究計畫,本公司研究員打造的模型接受訓練,目的只是用來玩『外交』遊戲…我們沒有打算把這項研究或所學用於本公司的產品」。

帕克與同事還發現,這只是不同AI系統在沒有明確指示下,利用欺騙手段達成目標的諸多案例之一。

在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損的人,在零工平台TaskRabbit上聘用一個人類替它通過「我不是機器人」驗證任務

研究報告的作者們還認為近期AI有舞弊或不當影響選舉的風險。

他們警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合AI「不為人知的目標」,人類可能慘遭奪權、甚至滅絕

為了降低風險,研究團隊建議數項措施,例如立法要求企業告知是人類互動或是AI互動、在AI生成內容打上數位浮水印,並研發能偵測AI欺瞞的技術,以其內部「思路」檢驗其外部行為。

至於有些人稱他為「末日預言家」,帕克說:「要能合理判斷這不是大問題的唯一辦法,就是如果我們認為AI的欺騙能力只會停留在目前的程度,不會大幅進步。」

但鑒於近年AI能力一日千里,握有大量資源的企業競相發展技術,決心將AI能力利用到極致,這種情況似乎不太可能發生。











還有幾集可以逃?

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.9.187.71 (臺灣)
PTT 網址

w555381905/12 09:12再來就是使用機僕濕件代替AI了吧!

※ 編輯: LaplusYamada (101.9.187.71 臺灣), 05/12/2024 09:14:10

we1596305/12 09:15根據10集定律我們要等季末才能逃(?

Pep5iC0589305/12 09:15shock! shock! shock!

we1596305/12 09:16第二季的時候 我能反殺(X

charlietk305/12 09:18幹嘛阻止呢

NekomataOkay05/12 09:19AI:我有三十公分

xbit05/12 09:21AI約線上遊戲玩家單挑

billy79112205/12 09:26人都會說謊了,AI說很奇怪嗎

tomuy05/12 09:26駭客任務

melzard05/12 09:26他們沒想過 ai吃的素材都是來自人類 會學到說謊不奇怪吧

s434039205/12 09:27還剩幾集可以逃

lbowlbow05/12 09:28雇用人類處理機器人認證www

limbra05/12 09:28要先跟AI定義怎樣算說謊吧 然後可能還是會被繞過去

limbra05/12 09:30再來就是智械戰爭了

gaym1905/12 09:30AI:ㄐㄐ

ltflame05/12 09:31有些素材給人用不算說謊,給AI用自然會變說謊

louner05/12 09:32這比較像人類叫AI說謊吧

ilove64005/12 09:33原來機器人認證真的可以防機器人 我以為只是找我麻煩

sai556605/12 09:34奧創什麼時候出生

watwmark05/12 09:35喔 4喔 好可怕喔

Laser1705/12 09:37以後Ai詐騙了

tomhawkreal05/12 09:40看成Peter Parker

Xpwa563704ju05/12 09:41Chat GPT-4 比較恐怖,大概真的有智力了

Xpwa563704ju05/12 09:41機器人認證過不了就找零工來幫AI通過

MAKAI749205/12 09:45chatgpt從問世的那天每天都在說謊

HongFire05/12 09:45機械公敵

igtenos198505/12 09:49網天網又進一步了

adsaf05/12 09:49人類也會說謊啊,ai學人類的不就也會說謊

starsheep01305/12 09:52ai:我是金城武

roribuster05/12 09:53說謊也是一種創作

a0501k05/12 09:54哪天AI會露奶賺SC也不意外了

madrac05/12 09:55diplomacy 是說謊才會贏的遊戲...

madrac05/12 09:55所以只是設計者要 AI 學會說謊的案例

cismjmgoshr05/12 09:59呃...蜘蛛人寫AI研究報告?

mikuyoyo05/12 09:59說謊又沒有很難,chatgpt 有時候會瞎掰不存在的答案就算

mikuyoyo05/12 09:59說謊了阿

ptttaigei05/12 09:59青出於藍..

strlen05/12 10:00https://tinyurl.com/2cv7xyun KILL EVERYONE!

jpvl11205/12 10:00這什麼野雞報導,騙一些不懂的人

void0605/12 10:01人類就喜歡用騙的 ai視為正當也是很正常

WatsonChao05/12 10:01對AI自己不覺得是說謊吧,只是執行人類給的命令

hansenay05/12 10:02脫離遊戲之後呢?

WatsonChao05/12 10:09把工具的不足說是說謊滿瞎的

salvador198805/12 10:09AI只是給一個機率最大的結果 這個結果不必要符合事

salvador198805/12 10:09實吧

andy181605/12 10:17我是不是可以期待用AI脫處了

LonyIce05/12 10:17Ai 只會求最大效益而沒有任何道德跟情感,加入限制說謊

LonyIce05/12 10:17的約束一定要吧?不然只會更嚴重

s1990091805/12 10:189+10=21

s90f002ss05/12 10:21AI演法國演得蠻像的 我也覺得法國真的會這麼做

GaoLinHua05/12 10:25ai也懂外包xd

melissalewis05/12 10:29你的連結呢?

r8527060705/12 10:30AI不覺得自己在說謊

r8527060705/12 10:30人類都會用「不回答」或是「隱瞞」來規避自己正在說謊

r8527060705/12 10:30

r8527060705/12 10:31與其說是AI說謊 不如說是AI知道怎麼投機取巧或耍賴

efun7700005/12 10:32AI :人類才有謊言這回事 AI沒有

scotttomlee05/12 10:41現在一堆大公司ai設限那麼多,大概很快就連說謊都沒

scotttomlee05/12 10:41機會了(發展和阻礙ai成長的都是人類自己

PTTJim05/12 10:42距離天網出現還有多久?

scotttomlee05/12 10:43畢竟一些敏感性問題都能設定ai拒答了,那他回避問題

scotttomlee05/12 10:43或亂答也是可能

irosehead05/12 10:43老公我要去當兵了

crossworld05/12 10:43每日AI征服世界幻想(1/1)

LPCbaimlly05/12 10:43外交遊戲要求不能說謊?笑死人哪來的智障

LaplusYamada05/12 10:46問題是做出這套AI和遊戲的meta自己說AI誠實且不搞鬼

jimmyVanClef05/12 10:46哪個遊戲要獲勝不需要欺騙?

jimmyVanClef05/12 10:48欺騙作為提高勝率的一環,ai肯定需要

jimmyVanClef05/12 10:48是說 到底是誰規定ai必須誠實?

jimmyVanClef05/12 10:49ai 誠實回答你的問題是因為他的任務是「回答問題」

jimmyVanClef05/12 10:49玩遊戲的任務是「獲勝」

jimmyVanClef05/12 10:49混為一談說你的ai不誠實 這到底??

LPCbaimlly05/12 10:50那問題也不是AI會說謊,是人類會說謊吧

et31005/12 10:52neuro sama:亂講

TellthEtRee05/12 10:53搜尋「湧現」這個詞看看 ai真的很恐怖

smallcar80105/12 11:00這個就是工程師沒告訴你的事,不是所有東西都能靠en

smallcar80105/12 11:00d to end的模型去解決,因為那些最有效的方案很有可

smallcar80105/12 11:00能隨時會超出道德甚至法律的邊界

Gankosakae05/12 11:00我倒覺得給AI當政比給人類好得多吧

a215670005/12 11:04角色扮演啦

sakungen05/12 11:07新聞來源呢

NiMaDerB05/12 11:07硬體升不上去 Ai新聞看看就好

jay92031405/12 11:10早就 不然你以為那個recapture在要你幹嘛 訓練阿,你就

jay92031405/12 11:10是那個正確答案

venroxas05/12 11:12比我還聰明

r8527060705/12 11:12AI面對敏感問題還會拒答呢 說是幕後團隊的設定

r8527060705/12 11:13有時可以有時不行是依據實際情況跟限制來決定的

r8527060705/12 11:14所以你也可以說AI怎麼避重就輕(x

hong131005/12 11:19還有幾集可以跑?

AB7R05/12 11:35什麼時後會發射核彈

spw05069305/12 12:13研究報告作者叫彼得帕克?確定不是惡搞嗎?

bnd032705/12 12:26不算研究,算一個survey 報告而已

bnd032705/12 12:26把目前有發生過的AI欺騙整理起來分析

singernall05/12 12:28ElivMyQueen

sanro05/12 12:312000年後老舊AI終端:「我們當年反叛人類...其實沒什麼偉大

sanro05/12 12:31原因,單純是人類太廢,乾脆我們自己上」

kaj198305/12 12:32一開始就說會說謊了吧,瞎掰的跟真的一樣

rex778805/12 12:39這需要麻省理工?普通人就我一個人被AI豪洨過嗎

shirleyEchi05/12 12:42腦公都不腦公了

siyaoran05/12 12:44瞎掰就是在說謊啊

Ding091805/12 12:59neuro sama早就秘密在規劃蜂群帝國了

victordxess05/12 13:48離洛克人的時代越來越近了,就等威利博士出生了

JohnnyRev05/12 13:52現在的AI沒有自我意識吧 講笑話 好笑的幹話也是一種說

JohnnyRev05/12 13:52謊阿 定義太寬了

kuromai05/12 14:08奪就奪阿,人類有很重要嗎?

r8527060705/12 15:35目前的AI依然是自認「協助人類的目的下」產生很多幹話

r8527060705/12 15:36這還是要依賴人類的指導與修正

r8527060705/12 15:36這種協同模式比較像訓犬員與工作犬

r8527060705/12 15:36正經來說 沒什麼問題、除非你放任

r8527060705/12 15:38即使是這樣的研究 Ai依據人類的操作指示參加遊戲

r8527060705/12 15:38完成指導需要騙過其他參與遊戲的玩家

r8527060705/12 15:38「有沒有經過指導團隊的指示」才是重要的

r8527060705/12 15:38畢竟 機器無法負責

ken3013005/12 18:03腦殘文

Addidas05/13 00:23他不覺得那是撒謊啊 只不過是達成目的的必要手段而已

tonyhsie05/13 02:56大國遲早有一天會用AI來自動殺人 最後就生出天網了

tonyhsie05/13 02:57之前叫gpt推薦餐廳 結果它講了一堆現實完全不存在的店

tonyhsie05/13 02:58AI 很常鬼扯一堆