多倫多大學創(chuàng)造“隱私過濾器”,利用算法干擾社交巨頭的人臉識別

作者: 2021年07月30日 來源: 瀏覽量:
字號:T | T
過去幾個月信息安全和數(shù)據(jù)隱私問題被人們熱議,熱議的內容中包括了英國數(shù)據(jù)分析公司CambridgeAnalytica的數(shù)據(jù)收集策略和Facebook首席執(zhí)行官馬克·扎克伯格在美國參議院的證詞。人臉識別技術利用基于人臉特征點的算法

過去幾個月信息安全和數(shù)據(jù)隱私問題被人們熱議,熱議的內容中包括了英國數(shù)據(jù)分析公司 Cambridge Analytica 的數(shù)據(jù)收集策略和 Facebook 首席執(zhí)行官馬克·扎克伯格在美國參議院的證詞。

人臉識別技術利用基于人臉特征點的算法進行識別,因此人臉特征點是其中的一種主要的數(shù)據(jù)形式。每次你上傳一張照片到 Facebook、Instagram,或者其他地方,你都會將照片中人的面部特征點和照片中其他物體的特征點提供給這些學習系統(tǒng)。

為了解決這個問題,多倫多大學的 Parham Aarabi 教授和研究生 Avishek Bose 領導的研究小組開發(fā)了一種算法來動態(tài)干擾這項技術。

這種技術原理基于“對抗性訓練”,本質上是建立起兩種相互對抗的算法。Aarabi 和 Bose 創(chuàng)建了兩個神經網絡,一個是識別人臉的網絡,另一個是破壞其既定目標的神經網絡。這兩個網絡互相學習,相互提升效果。

Bose 在接受 Eureka Alert 的采訪時說:“具有破壞性的人工智能可以‘攻擊’人臉識別時神經網絡所尋找的東西。例如,如果檢測 AI 正在尋找眼角,它會調整眼角,這樣眼睛就不那么明顯了。它會在照片中產生非常細微的干擾,但對探測器來說,這些干擾足以愚弄整個系統(tǒng)?!?/strong>

在實踐中,這意味著用戶可以使用一個過濾器 (比如 Instagram 或 Snapchat 上的普通視覺過濾器),改變圖像中人眼無法察覺的特定像素,使人臉識別技術失效。

在一個包含 600 多張不同種族、光照和環(huán)境的人臉圖像的測試集上,該系統(tǒng)能夠將可檢測的臉從 100% 降低到 0.5%。

研究小組將在 2018 年 IEEE 多媒體信號處理國際研討會上展示他們的研究成果,之后他們希望通過一個應用程序或網站將該過濾器公之于眾。

“十年前,這些算法必須是人類定義的,但現(xiàn)在神經網絡可以在訓練集上自己學習,”Aarabi 說?!白詈?,他們可以做一些非常令人驚奇的事情。這是一個令人著迷的領域,有巨大的潛力?!?/span>


全球化工設備網(http://seenwhilewandering.com )友情提醒,轉載請務必注明來源:全球化工設備網!違者必究.

標簽:

分享到:
免責聲明:1、本文系本網編輯轉載或者作者自行發(fā)布,本網發(fā)布文章的目的在于傳遞更多信息給訪問者,并不代表本網贊同其觀點,同時本網亦不對文章內容的真實性負責。
2、如涉及作品內容、版權和其它問題,請在30日內與本網聯(lián)系,我們將在第一時間作出適當處理!有關作品版權事宜請聯(lián)系:+86-571-88970062