Re: [新聞] 蘋果將偵測兒童色情影像 用戶上傳iCloud
AI可以將圖片分類,找出有問題的圖片
具體做法有很多種,我們先簡介目前效果最好的神經網路
首先會用數學模擬神經元的運算
簡化來說每一層的網路輸出(Output)就是輸入(Input)乘上權重(Weight)再加上偏移(Bias)
Output = Input * Weight + Bias
而每個 Input 可以是一維、二維或三維的矩陣,Weight, Bias也是特定大小的矩陣
所以 Output 就會很像是腦袋裡面神經網路的連結
所以當我有很多層的時候,就會像是小型腦袋
而這個小型的腦袋就可以透過已標註資料進行訓練
假設 Apple 已經人工標定好 1000 張照片,其中 800 張正常,另 200 張異常
我們就可以透過訓練這個小型腦袋,讓他逐漸地學會如何分辨正常與異常
學習過程會計算最終的輸出(FinalOutput)與真正的答案(GroundTruth)的差異(Loss)
透過這個 Loss 就可以透過數學的運算來微調需要修改的權重(Weight)與偏移(Bias)
最後訓練完的神經網路的最終輸出(FinalOutput)就會是以下例子:
一般照片:正常:0.99 (99%) 異常:0.01 (1%)
異常照片:正常:0.22 (22%) 異常:0.78 (78%)
通常類神經網路並不會用原始解析度進行訓練
需要降維,例如先縮小到 224*224 的大小再進行訓練
而經過訓練後的神經網路就能很好地將圖片進行分類
其實這種類似的做法已經有在手機相機軟體上應用: 場景智慧辨識、眨眼偵測...等
如果有足夠多的人工標註資料進行訓練,已經可以輕鬆達到 99% 以上的成功率
如果設計夠好,一台伺服器一秒要處理 100 張照片應該也沒問題
畢竟在手機端的運算能力也都可以即時辨識場景
不在手機端分析照片的原因可能是避免增加耗電
Apple會對照片進行分析,主要當然是希望降低虐童犯罪
我剛剛 Google 了一下查到 "美國一年有高達76萬5000名兒童失蹤"
我不知道數據是否準確,但這些失蹤兒童可能有大部分都跟虐童犯罪有關
希望 Google 也能跟進,讓兒童更安全!
--
聽起來好像很厲害...可是我看到的版本只是取Hash值
去跟已知違法圖檔做對照
你看到的版本不夠詳細
如果要這樣分析的話大概得多放幾個核心跟電池囉
希望 Google 不會跟進,這樣很不安心
那是蘋果要擔心的事情,為什麼你要幫他們擔心 XD
一般人不開心的點是我明明不是性犯罪者
你要花我手機電力跟運算力來檢查我自己手機上的資料
來跟你證明說我是清白的。
好,不爽不要用
我覺得應該比較像是用autoencoder這類的方法
原文只有上傳iCloud才審查吧,不會用你手機的電量
Autoencoder的特性是不在資料集內的照片就會警報喔
會喔,比對是在裝置端運作的
不是希望估狗跟進 是估狗早就有了
模型建立好手機餵圖進去用aie運算沒多久就有結果,
又不是要在手機上訓練模型。
google早就這樣做了!最近沒看新聞嗎?
不要放照片在海水上不是基本共識嗎?
上傳圖片前,愛瘋有說會檢查嗎?
google早就做了,apple是最近才有消息
一年有76.5萬兒童失蹤是怎麼來的?逛賣場時亂跑之
後找回來這樣有算嗎?
那是累積報案數,一年少10%兒童人口數你會信?
一秒100張… 沒概念就不要誤導人家了
https://imgur.com/50OIHT5
NVIDIA Tesla V100 使用 FP16 精度可達 28.26 TFLOPS EfficientNet 的推論效能甚至每秒可以破 1000 張 我估計 100 張確實有點太少了,誤導大家了,抱歉
希望不要被獨裁政府拿來打壓異議者就好
其實在手機上做也沒啥問題,每次增加一張照片比對一
個數字是能吃你多少電,當然從雲端上比對也可以,像
google就有新聞是"巡查"到照片才抓的,也都幾年前的
事情了,當然排除這些,光侵犯隱私就是不可取。
5
六七年前在讀研究所的時候,因為主題是影像分析比對,所以有找了許多論文 我就看過幾篇google 發表的論文 透過快速比對 hash 值來快速搜尋圖片 論文中就提到他們把 原先比較距離使用的 兩個值相減平方 這類的概念 直接改成把所有資料簡化成0與1 利用 OR XOR 的方法 來高速比對 當然 論文中並沒有提到 google 是如何對圖片做hash的 或是 用什麼方法取特徵點的8
在開一篇特地來打爆安卓仔最後的幻想 人權聲明: 我自己也用 Android + Google 雲端空間 之前有一篇在八卦板蠻轟動的新聞 拍表妹下體上傳雲端 Google通報台灣警卻因這點難成罪32
Apple 設計這套系統的時候就考慮過有人會出來靠北隱私了 背景知識 - Hash 值: 每個檔案都有一個唯一的 Hash 值 (指紋的概念) 科學家用數學保證他幾乎不會重複 每個雲端空間基本上都會在你上傳檔案的時候計算 Hash 值 為了要避免他們儲存太多重複的檔案3
我只能說不管怎樣 他們一定會侵犯隱私 人工審核照片的 如果是我來設計抓未成年影像的AI 我會先判斷年齡,用臉或是體形,判斷是否為未成年 再判斷圖片是否有裸露,性行為13
用檔案 hash 比對圖片實在太不可靠了,改個 1 bit 資料就可以讓 hash 不同 我覺得蘋果不會做這種智障系統,否則這系統根本沒用 所以去翻了一下相關文件 看起來是用蘋果自己開發的新演算法 NeuralHash9
美國司法部的官網對兒童色情有簡要說明,最好去看一看,免得惹上大麻煩: 有幾點特別值得注意的: 1. 美國聯邦定義的「兒童」指的是18足歲以下。 2. 明確的性行為的法律定義並不要求一張圖片描述一個孩子正在進行性活動。
58
Re: [情報] 蘋果新的照片審查機制原文恕刪 因為覺得兒童色情及用戶隱私是相當重要的議題,但使用者對於其技術的誤解容易造成議 題失焦,所以希望透過這篇回文拋磚引玉吸引更多人的討論,也懇請各位大神對於我說錯 的地方不吝指教QQ。 在討論運作方式前,先來看看幾個技術文件提到的大前提XD19
[情報] Tesla官方曝光了其神經網路視覺辨識成果影片: 來源: 在Tesla 官網的招聘頁面中,有一小段影片(應該是今天才放上去的)17
Re: [閒聊] 為啥vivy這次這麼聽話推 emptie: 除了堆砌更多沒解釋的名詞,這跟動畫的演出其實相差不大 05/03 15:51 → emptie: 。但老實說這還是難以置信的工程壯舉吧。陽電子腦如果不 05/03 15:51 → emptie: 是出門的時候踢到一箱圖紙/或是去火星探險的時候發現了 05/03 15:51 → emptie: 外星人的遠古遺跡,總會有個研發的過程吧?總會從簡單的 05/03 15:51 → emptie: 慢慢進化到複雜吧…?如果是底層的單元就有很大的不一致 05/03 15:5114
Re: [情報] 蘋果新的照片審查機制嗨又是我XDD,因為蘋果釋出了一份新的說明文件,正好解釋了一些我上一篇 文章中尚待釐清的問題,所以再寫一篇文與板友分享與討論~ 註:以下內容皆是我個人對於文件的解讀,完整的資訊請參考官方文件,且 如有說錯的地方也請不吝指教!