PTT推薦

Re: [討論] 好像這一天會來:工科超越醫科

看板Tech_Job標題Re: [討論] 好像這一天會來:工科超越醫科作者
partsex
(部分的性)
時間推噓 7 推:13 噓:6 →:80

又是笑話 這隻AI連算術都不會算 是要跟人家當什麼醫生

https://i.imgur.com/YzXZ5Xv.png

圖 好像這一天會來:工科超越醫科

https://i.imgur.com/aXUmSD0.png
圖 好像這一天會來:工科超越醫科

https://i.imgur.com/fAfmitK.png
圖 好像這一天會來:工科超越醫科

https://i.imgur.com/1RlsUeS.png
圖 好像這一天會來:工科超越醫科

笑死 笨的跟豬一樣的ai 要當醫生lol

連算術都不會 是要開藥劑量毒死人喔?

然後有待過醫院就知道

有時候一些症狀連病人自己都不知道如何用「語言」精確描述

常常用很含糊的語句 例如:

病人:「我感覺這裡悶悶的、緊緊的、鬱卒、綁綁的」

你ai 聽的懂? 笑死

你以為大醫院的內科病人都是小感冒喔? 打噴嚏流鼻水 就結案喔?lol

並且以上那些形容詞 對不同病人來說可能根本不是在描述同一件事 或同一種感覺


這時候靠的就是醫生的經驗揣測


ai 想要取代醫生下診斷 基本上不可能

因為人類的語言無法精確描述的事情跟感覺實在太多了

所以你光餵資料 這關就有問題lol

更何況這台ai 比我桌上的計算機還笨 加減乘除都不會

給他看病 等同吃幼稚園開的藥

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 45.144.227.27 (臺灣)

※ 文章網址:
https://www.ptt.cc/Tech_Job/E.C-OBVUHVWGvM

※ 編輯: partsex (45.144.227.27 臺灣), 02/03/2023 15:13:15

valkyrie 02/03 15:18吃ai開的藥 馬上藥到命除

twoboy 02/03 15:24醫生真的能救活的有幾個?傻了

brightest 02/03 15:26其實醫生也搞不清楚吧 還不是靠儀器

brightest 02/03 15:27心臟科就是超音波 胃科就照胃鏡 沒再跟你揣測的啦

brightest 02/03 15:28這AI是真的過譽沒錯

loadingN 02/03 15:31醫生也是看狀況開藥讓你緩和,能不能好還是看你的

loadingN 02/03 15:31身體

Zepho 02/03 15:32先取代耳鼻喉科啦 病人症狀勾一勾 直接拿藥

partsex 02/03 15:35你乾脆直接說每個進內科病房的就直接排 全身健康檢

partsex 02/03 15:35查好了 笑死

partsex 02/03 15:35你知道現在的心電圖一印出來都有ai自動判讀嗎?

partsex 02/03 15:35會把結果寫在紙上給醫生參考

partsex 02/03 15:35但幾乎每個都判你心臟有問題

partsex 02/03 15:35結果醫生一看 是正常

partsex 02/03 15:35因為一點雜訊 ai就以為你有心臟病lol

partsex 02/03 15:40只要ai沒辦法模仿人類的思考能力 那他就永遠只能「

partsex 02/03 15:40單工」 診斷這種多工的思考 現在的機器學習 電腦是

partsex 02/03 15:40不可能取代人類的腦力

partsex 02/03 15:40阿法狗連打星海都贏不了人類專家了 要當醫生lol?

jemdogdog 02/03 15:42沒錯 基本上EKG上面的diagnosis 看看就好

partsex 02/03 15:45

partsex 02/03 15:45自駕車的極限大概到level4而已 即在人類規劃的城市

partsex 02/03 15:45道路中能取代世界

partsex 02/03 15:45而level5是指 「在任何場域 (不一定是道路環境)

partsex 02/03 15:45有高度經驗跟技術的人類能駕馭的地方 ai都要能勝任

partsex 02/03 15:45

partsex 02/03 15:45這種level5 現階段的ai做不到 或是說百年內鐵定做

partsex 02/03 15:45不到

partsex 02/03 15:58而你要取代人類醫生 就相當於要做出level5的自駕車

partsex 02/03 15:58 lol別做太多白日夢

brightest 02/03 16:00我沒說現在AI很強阿 但如果只是要判讀檢查結果

brightest 02/03 16:00AI是有機會做到比人類還好的吧

pornstar 02/03 16:0720年後再回來這篇文看會不會被打臉

andy810306 02/03 16:11AI要模仿人類的邏輯去思考,那就要有足夠的背景知

andy810306 02/03 16:11識,難道年輕醫師聽到病人隨便講就能通靈?還不是

andy810306 02/03 16:11不斷摸索亂槍打鳥投藥累積經驗,那醫師怕被取代想

andy810306 02/03 16:11藏招的話AI當然學不會,alphaGO有一個優勢是黃博士

andy810306 02/03 16:11本身就會下圍棋,有一定的背景知識,不會像是瞎子

andy810306 02/03 16:11摸象隨便餵垃圾資料,才在說這個AI就是遜啦

partsex 02/03 16:17

partsex 02/03 16:17人類大腦的思考模式是「因果推理」

partsex 02/03 16:17先是吸收知識或資訊或經驗

partsex 02/03 16:17在從這些基礎去做「因果關係」的推理

partsex 02/03 16:17結果往往能思考出很多「資料庫」以外的新東西

partsex 02/03 16:17ai就是不斷的進行「歸納法」 而不會「演繹法」 因

partsex 02/03 16:17此只要是沒看過的東西就瞬間變嬰兒lol

partsex 02/03 16:19現在的ai只會「歸納」 根本不會「推導」 沒有「因

partsex 02/03 16:19果推理的能力」

brightest 02/03 16:19你確定ALPHAGO所有棋局都看過? 不會推理?

partsex 02/03 16:25圍棋是很單工的東西 工克圍棋有代表什麼嗎

partsex 02/03 16:25你去問做自駕車的人 level5何時可以做出來

partsex 02/03 16:25他一定會跟你說那是很未來的事情 有生之年頂多leve

partsex 02/03 16:25l4

partsex 02/03 16:25而level5才能真正取代人類lol

wei115 02/03 16:25這AI還真的很擅長整理病人的自述 他很擅長處理詞語

wei115 02/03 16:26之間的聯繫關係 會覺得GPT很屌也是因為他的這個特性

partsex 02/03 16:27ai會推理的話 連基本算術都會算錯?lol

wei115 02/03 16:27因為人的思考方式很大一部份是基於語言的 他正好投

wei115 02/03 16:27其所好

partsex 02/03 16:31

partsex 02/03 16:31他會3*3*3 也會2*3 也會5*4 個別都會

partsex 02/03 16:31但加起來就不會 笑死

partsex 02/03 16:31他會1+2+到10=55

partsex 02/03 16:31也會55-8=47

partsex 02/03 16:31但卻不會 1+到7+9+10

partsex 02/03 16:31這樣叫做會推理lol ?笑死

wei115 02/03 16:33AI就高級統計學R

FK6819 02/03 16:55所以醫不好轉診是?

jemdogdog 02/03 17:02先不說隔科如隔山 就算是同一科轉診也是平常的事

partsex 02/03 17:04阿法夠不用全部的棋步都看過 只要看過夠多 夠大的

partsex 02/03 17:04統計庫 然後算下一步的勝利機率最高的是哪個位置就

partsex 02/03 17:04夠了

hideonirl 02/03 18:05所以你是醫生嗎?講話感覺不太像

brightest 02/03 18:11Ai醫生不需要看過每個病患 只要看夠多 找出機率最

brightest 02/03 18:11高的診斷即可。這不是一樣嗎

brightest 02/03 18:12醫生一個看不到5分鐘 是要推理三小

pornstar 02/03 18:33話別說死, 那只是你現在認知的AI還不會

ShadowPoetry02/03 18:35阿法狗廣義來說就是看過比人類更多棋局啊,因為規

ShadowPoetry02/03 18:35則固定的可以自己跟自己下個幾千萬局來學

partsex 02/03 21:39你沒病當然看5分鐘 大醫院醫生看到真的大病都至少

partsex 02/03 21:39花15-20分鐘

※ 編輯: partsex (45.144.227.49 臺灣), 02/03/2023 21:46:09

Sosonian 02/03 23:39chatGPT是基於人類世界文本訓練的

Sosonian 02/03 23:40只要他參考的文本錯誤夠多,比如說 1加到10中間漏了

Sosonian 02/03 23:408大部分的人多算錯的話,他也是會跟著算錯

Sosonian 02/03 23:43然後他給的是使用者滿意的答案,但這答案不一定正確

Sosonian 02/03 23:45chatGPT的獎勵機制是使用者feedback的滿意度

Sosonian 02/03 23:49所以如果使用群體本身對答案無甚認知,鼓勵錯誤答案

Sosonian 02/03 23:50多的話,他也會跟著學錯。跟之圍棋的alpha go

Sosonian 02/03 23:50以贏做獎勵機制不一樣

Sosonian 02/04 00:02所以chatGPT對答案的認知會趨近於他的使用者的認知

Sosonian 02/04 00:03這點對於語文或對話的理解這方面的用途是很好的,

Sosonian 02/04 00:04因為他對於對話中字詞的拆解以及理解會越來越接近

Sosonian 02/04 00:04人類使用者

Sosonian 02/04 00:05也包含對話中語境的理解

faniour 02/04 07:59你知道這隻是語言功能的AI嗎?

faniour 02/04 08:01你拿數學去問做語言的?

faniour 02/04 08:02你怎麼不用刀叉去喝湯啊?

partsex 02/04 09:52這系列 推文有做ai的在笑你們這群工人難怪考不上醫

partsex 02/04 09:52科lol 對自己不懂的東西充滿信心