PTT推薦

Fw: [新聞] 未來將有AI法官? 法界研究人工智慧導入

看板Soft_Job標題Fw: [新聞] 未來將有AI法官? 法界研究人工智慧導入作者
chuo11
(KKK)
時間推噓17 推:19 噓:2 →:33

※ [本文轉錄自 Lawyer 看板 #1VNVm0C6 ]

作者: chuo11 (KKK) 看板: Lawyer
標題: [新聞] 未來將有AI法官? 法界研究人工智慧導入
時間: Sun Sep 13 19:01:17 2020

未來將有AI法官? 法界研究人工智慧導入司法

https://news.ltn.com.tw/news/society/breakingnews/2946530

〔記者吳政峰/台北報導〕司法官學院15日舉辦「2019年『人工智慧對司法之影響及未來發展』國際研討會」,討論AI導入司法的可能性,司法官學院院長蔡碧玉表示,AI在司法運用層面上越來越廣泛,甚至有的國家開始開發AI法官,試圖審理小型訴訟案件,但其中的倫理與黑箱問題,也是勢必面對的挑戰。

蔡碧玉指出,從媒體報導看到有國家開始開發AI法官,希望AI法官能代替人類處理小型訴訟案件,讓人類法官能騰出時間;亦有美國的律師事務所運用IBM所開發的華生(Watson)電腦所支援之AI律師ROSS,提供法律諮詢服務、蒐集大量文獻及案例、閱讀並分析大量文件、搜尋可用證據,甚至是草擬契約、書狀等;國際間曾有討論將AI用於快速審查細節、分析再犯率,判斷行為人能否具保、是否得以假釋或緩刑,甚至幫助法官做成判決。

但蔡碧玉也提出質疑,現有的法律規範對AI可能有所不足,當人類將事情交由AI進行運作處理時,所衍生出來的法律責任將如何歸屬?AI透過機器學習的過程中,個資的蒐集與處理,該如何規範及保護?如何解決識別資訊的隱匿問題?另外,AI是透過機器主動學習,人們將難以理解其演算的過程,是否因此導致演算法的黑箱?在數據資料不夠全面、數量不足時,是否造成誤導、偏見,甚至有歧視、不平等之問題?對於以規範自然人法律關係為主的傳統法律,AI的發展將帶來難以預測的法律問題,該如何面對?這些都是法律人所關切的課題。

受邀主講的IBM認知法律實務全球共同負責人Shawnna M. Hoffman-Chilrdess則表示,IBM的華生電腦已經運用在辯論等領域,也支援AI律師ROSS,提供法律諮詢,但AI並不會取代法律人,而是提供給法律人更多的判斷資訊,未來是AI的世代,也是第四次工業革命,而伴隨而來的個資與隱私問題,將透過去中心化的區塊鏈降低風險、增加信任。

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.231.48.226 (臺灣)
※ 文章網址: https://www.ptt.cc/Lawyer/M.1599994880.A.306

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc) ※ 轉錄者: chuo11 (61.231.48.226 臺灣), 09/13/2020 19:03:21

jj032109/13 19:24將軍 我會判你有罪

www1701009/13 19:46從台灣的資料下去訓練只會有恐龍AI法官吧

dreamnook09/13 19:53應該會跑出很奇怪的判例(?

kongyeah09/13 20:04加 判決.replace("可教化", ""); 就可以了

Victor780909/13 20:18只覺得會有很多奇怪判決來污染訓練集

OforU09/13 20:30覺得機器會判得更公正 該怎麼判就怎麼判 但法界不可能讓A

OforU09/13 20:30I來判

Csongs09/13 20:50異議!

vi00024609/13 23:48反正都不會判死刑 隨便啦

superpandal09/13 23:52接下來就有人想盡辦法攻略工程師 XDDD

viper970909/14 01:36人類終於要聽命於機器了嗎

purpleboy0109/14 02:23加入民意 就會汙染了

jobintan09/14 08:04不過與其拿稅金養法經匠,還不如拿去養相關設備與維護的

jobintan09/14 08:05data scientist還比較實際吶。

odahawk09/14 08:06出問題的是演算法卻整天想改硬體...

allenxxx09/14 08:38人寫的判決書你都看不懂了,AI寫的?

aidansky098909/14 08:57台灣電支都搞不定,難喔

water74409/14 09:36全部可教化

knives09/14 10:14可能只要說出關鍵字,就會判定成可教化了

nekosgr9309/14 10:15法官是有缺到需要讓機器來輔助嗎

nekosgr9309/14 10:15讓人類那間騰出時間是要去做什麼?

NDark09/14 11:48岔個題。其實類似議題有強烈的需求。

NDark09/14 11:49能解決痛點的團隊可能會有不錯的發展

NDark09/14 11:49 大家知道 因為疫情的關係 看醫生這件事 在各國變得困難

NDark09/14 11:50而因為疫情網路上有各種自發社群分享疫情的情報

NDark09/14 11:51其中就發現 上網求助諮詢看診 是存在硬需求

NDark09/14 11:52不管是偏方 或是先確認要看哪一科,第一步驟都是先上網查問

NDark09/14 11:52當然一定不能100%解決問題。這種行為並沒有佔醫生的便宜。

NDark09/14 11:53而法律諮詢這邊已經有類似的服務在運作了。

NDark09/14 11:54他的做法是上網付費諮詢,平台背後會有匿名的律師回答。

NDark09/14 11:55這種服務 其實不只增加媒合 活絡市場 更能 減少資源浪費

ptta09/14 12:31提供給演算法的樣本全都可教化 怎麼訓練出不可教化的判決?

aidansky098909/14 13:42重點在審閱文件,20年內不可能交給AI判決

becca94509/14 14:32吸毒 精神疾病 手段不兇殘 通通可教化

ruthertw09/14 15:05 還遠的咧 光是女生說犯人逼她吹喇叭 AI就聽不懂了

jej09/14 17:3135樓 這個教AI沒一兩次 他能夠比你更精確的了解

jej09/14 17:31什麼時候的喇叭 是你想像中的喇叭 還是真喇叭

OforU09/14 19:56AI能做到分辨同詞 不同義 我以為是常識

MonkeyCL09/14 23:43先讓 AI 關在圖書館讀書考國考好嗎

opencat09/15 01:16法官主觀意識決定判決結果 垃圾資料一 ai根本無法收斂吧

goldflower09/15 09:56可教化這個詞的權重值得商榷= =

odahawk09/15 11:09AI最多只能擔任書記官而已,各位鄉民被程式判刑會服氣嗎

allen13944309/15 14:36ai吃到恐龍的垃圾判決訓練出來還不是一樣變恐龍

maxsho09/15 17:27證明終了有一集就是提到這個。因為檢查官利用ai的漏洞給

maxsho09/15 17:27了特意證據導致無辜的人被判成兇手。同樣的語句在不同口

maxsho09/15 17:27氣或是文化下意思可能就不一樣了,要讓ai能夠正確判斷不

maxsho09/15 17:27是容易的事

nekosgr9309/16 09:42連人都不能正確判斷了怎麼會覺得用人的資料餵出來的機

nekosgr9309/16 09:42器能正確判斷

ggttoo09/16 11:38請不要用台灣判例來訓練AI

uncleben00609/18 18:53啊你要怎麼知道哪些是正確資料?結案就是正確嗎

kevinyin909/21 16:53用恐龍法官訓練集-> AI: 全部可教化

kattte09/25 19:36誰能接受被機器判決

piggywu10/19 23:49法官不需AI..就是法官加入太多私人情緒,才以為要有AI法官