Fw: [新聞] 未來將有AI法官? 法界研究人工智慧導入
※ [本文轉錄自 Lawyer 看板 #1VNVm0C6 ]
作者: chuo11 (KKK) 看板: Lawyer
標題: [新聞] 未來將有AI法官? 法界研究人工智慧導入
時間: Sun Sep 13 19:01:17 2020
未來將有AI法官? 法界研究人工智慧導入司法
https://news.ltn.com.tw/news/society/breakingnews/2946530
〔記者吳政峰/台北報導〕司法官學院15日舉辦「2019年『人工智慧對司法之影響及未來發展』國際研討會」,討論AI導入司法的可能性,司法官學院院長蔡碧玉表示,AI在司法運用層面上越來越廣泛,甚至有的國家開始開發AI法官,試圖審理小型訴訟案件,但其中的倫理與黑箱問題,也是勢必面對的挑戰。
蔡碧玉指出,從媒體報導看到有國家開始開發AI法官,希望AI法官能代替人類處理小型訴訟案件,讓人類法官能騰出時間;亦有美國的律師事務所運用IBM所開發的華生(Watson)電腦所支援之AI律師ROSS,提供法律諮詢服務、蒐集大量文獻及案例、閱讀並分析大量文件、搜尋可用證據,甚至是草擬契約、書狀等;國際間曾有討論將AI用於快速審查細節、分析再犯率,判斷行為人能否具保、是否得以假釋或緩刑,甚至幫助法官做成判決。
但蔡碧玉也提出質疑,現有的法律規範對AI可能有所不足,當人類將事情交由AI進行運作處理時,所衍生出來的法律責任將如何歸屬?AI透過機器學習的過程中,個資的蒐集與處理,該如何規範及保護?如何解決識別資訊的隱匿問題?另外,AI是透過機器主動學習,人們將難以理解其演算的過程,是否因此導致演算法的黑箱?在數據資料不夠全面、數量不足時,是否造成誤導、偏見,甚至有歧視、不平等之問題?對於以規範自然人法律關係為主的傳統法律,AI的發展將帶來難以預測的法律問題,該如何面對?這些都是法律人所關切的課題。
受邀主講的IBM認知法律實務全球共同負責人Shawnna M. Hoffman-Chilrdess則表示,IBM的華生電腦已經運用在辯論等領域,也支援AI律師ROSS,提供法律諮詢,但AI並不會取代法律人,而是提供給法律人更多的判斷資訊,未來是AI的世代,也是第四次工業革命,而伴隨而來的個資與隱私問題,將透過去中心化的區塊鏈降低風險、增加信任。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.231.48.226 (臺灣)
※ 文章網址: https://www.ptt.cc/Lawyer/M.1599994880.A.306
將軍 我會判你有罪
從台灣的資料下去訓練只會有恐龍AI法官吧
應該會跑出很奇怪的判例(?
加 判決.replace("可教化", ""); 就可以了
只覺得會有很多奇怪判決來污染訓練集
覺得機器會判得更公正 該怎麼判就怎麼判 但法界不可能讓A
I來判
異議!
反正都不會判死刑 隨便啦
接下來就有人想盡辦法攻略工程師 XDDD
人類終於要聽命於機器了嗎
加入民意 就會汙染了
不過與其拿稅金養法經匠,還不如拿去養相關設備與維護的
data scientist還比較實際吶。
出問題的是演算法卻整天想改硬體...
人寫的判決書你都看不懂了,AI寫的?
台灣電支都搞不定,難喔
全部可教化
可能只要說出關鍵字,就會判定成可教化了
法官是有缺到需要讓機器來輔助嗎
讓人類那間騰出時間是要去做什麼?
岔個題。其實類似議題有強烈的需求。
能解決痛點的團隊可能會有不錯的發展
大家知道 因為疫情的關係 看醫生這件事 在各國變得困難
而因為疫情網路上有各種自發社群分享疫情的情報
其中就發現 上網求助諮詢看診 是存在硬需求
不管是偏方 或是先確認要看哪一科,第一步驟都是先上網查問
當然一定不能100%解決問題。這種行為並沒有佔醫生的便宜。
而法律諮詢這邊已經有類似的服務在運作了。
他的做法是上網付費諮詢,平台背後會有匿名的律師回答。
這種服務 其實不只增加媒合 活絡市場 更能 減少資源浪費
提供給演算法的樣本全都可教化 怎麼訓練出不可教化的判決?
重點在審閱文件,20年內不可能交給AI判決
吸毒 精神疾病 手段不兇殘 通通可教化
還遠的咧 光是女生說犯人逼她吹喇叭 AI就聽不懂了
35樓 這個教AI沒一兩次 他能夠比你更精確的了解
什麼時候的喇叭 是你想像中的喇叭 還是真喇叭
AI能做到分辨同詞 不同義 我以為是常識
先讓 AI 關在圖書館讀書考國考好嗎
法官主觀意識決定判決結果 垃圾資料一 ai根本無法收斂吧
可教化這個詞的權重值得商榷= =
AI最多只能擔任書記官而已,各位鄉民被程式判刑會服氣嗎
ai吃到恐龍的垃圾判決訓練出來還不是一樣變恐龍
證明終了有一集就是提到這個。因為檢查官利用ai的漏洞給
了特意證據導致無辜的人被判成兇手。同樣的語句在不同口
氣或是文化下意思可能就不一樣了,要讓ai能夠正確判斷不
是容易的事
連人都不能正確判斷了怎麼會覺得用人的資料餵出來的機
器能正確判斷
請不要用台灣判例來訓練AI
啊你要怎麼知道哪些是正確資料?結案就是正確嗎
用恐龍法官訓練集-> AI: 全部可教化
誰能接受被機器判決
法官不需AI..就是法官加入太多私人情緒,才以為要有AI法官