“刷臉”,作為一種個(gè)人身份鑒別技術(shù),在深度學(xué)習(xí)等技術(shù)的護(hù)持下精度得以大幅提升,在LFW上,各大玩家在無(wú)限制條件下人臉驗(yàn)證測(cè)試(unrestricted labeLED outside data)中提交的成績(jī)普遍能夠達(dá)到99.5%以上。
人臉識(shí)別技術(shù)日益成熟的背后,作為自帶AI落地基因的安防行業(yè)(數(shù)據(jù)大、高試錯(cuò)容忍度),這幾年,天網(wǎng)工程廣泛鋪開(kāi)、智能系統(tǒng)全局應(yīng)用,城市秩序得到了更為高效的管理和防護(hù),民生需求得到了更為及時(shí)的處理和反饋,違反亂紀(jì)的行為能被精準(zhǔn)識(shí)別和處罰。
與此同時(shí),人臉識(shí)別系統(tǒng)的應(yīng)用也頗受爭(zhēng)議。
在大洋彼岸的美國(guó),亞馬遜因向美國(guó)執(zhí)法機(jī)構(gòu)提供人臉識(shí)別技術(shù)而遭到某聯(lián)盟的譴責(zé)。該聯(lián)盟表示,“亞馬遜以十分低廉的價(jià)格向美國(guó)警方提供人臉識(shí)別服務(wù),可能會(huì)導(dǎo)致美國(guó)公民的私人數(shù)據(jù)被濫用及隱私遭到侵犯”。
在他們看來(lái),將人臉識(shí)別技術(shù)應(yīng)用到前端視頻監(jiān)控攝像機(jī)上,可能會(huì)打破隱私及實(shí)用性之間的平衡。假設(shè)美國(guó)警方有若干臺(tái)這樣的安防攝像機(jī),同時(shí)擁有可疑人員的“黑名單”照片庫(kù),那么其他任何人如果與這些可疑人員有一些相像,一旦進(jìn)入警察的安防攝像機(jī)的鏡頭之內(nèi),都有可能受到警務(wù)人員的盤問(wèn)。而大多數(shù)美國(guó)人不希望生活在那樣的世界里。
從這來(lái)看,技術(shù)應(yīng)用的雙刃劍在人臉識(shí)別的落地上就得以體現(xiàn),且不說(shuō)人臉識(shí)別技術(shù)發(fā)展對(duì)于人類來(lái)說(shuō)優(yōu)多(安全)還是劣多(隱私),硬幣拋下落地的可能性還是得到了平衡。
近日,多倫多大學(xué)教授Parham Aarabi和他的研究生Avishek Bose開(kāi)發(fā)了一種算法,通過(guò)對(duì)圖像進(jìn)行“光轉(zhuǎn)換”,可以動(dòng)態(tài)地破壞人臉識(shí)別系統(tǒng)。
與上述聯(lián)盟控訴亞馬遜的理由一樣,這位大學(xué)教授也考慮到了隱私問(wèn)題,“隨著人臉識(shí)別技術(shù)越來(lái)越先進(jìn),個(gè)人隱私成為了一個(gè)真正急需解決的問(wèn)題,這就是反人臉識(shí)別系統(tǒng)被研發(fā)的原因,也是該系統(tǒng)的用武之地。”
根據(jù)Aarabi的說(shuō)法,他們主要采用了對(duì)抗訓(xùn)練(adversarial training)技術(shù),使得兩個(gè)神經(jīng)網(wǎng)絡(luò)相互對(duì)抗,一個(gè)神經(jīng)網(wǎng)絡(luò)從數(shù)據(jù)中獲取信息(人臉數(shù)據(jù)),另一個(gè)神經(jīng)網(wǎng)絡(luò)試圖去破壞第一個(gè)神經(jīng)網(wǎng)絡(luò)執(zhí)行的任務(wù)。
據(jù)悉,他們的算法是在包含不同種族,不同光照條件和背景環(huán)境下的超過(guò)600張人臉照片的數(shù)據(jù)集上進(jìn)行訓(xùn)練的(業(yè)界標(biāo)準(zhǔn)庫(kù)),兩個(gè)神經(jīng)網(wǎng)絡(luò)相互對(duì)抗會(huì)發(fā)形成一個(gè)實(shí)時(shí)的“過(guò)濾器”,它可以應(yīng)用到任何圖片上。因?yàn)樗哪繕?biāo)——圖像中的單個(gè)像素是特定的,改變一些特定像素,肉眼是幾乎無(wú)法察覺(jué)的。比如說(shuō)檢測(cè)網(wǎng)絡(luò)正在尋找眼角,干擾算法就會(huì)調(diào)整眼角,使得眼角的像素不那么顯眼。算法在照片中造成了非常微小的干擾,但對(duì)于檢測(cè)器來(lái)說(shuō),這些干擾足以欺騙系統(tǒng)。
“此前多年,這些算法必須由人類去定義,現(xiàn)在的神經(jīng)網(wǎng)絡(luò)可以自主學(xué)習(xí)。目前我們的算法將人臉識(shí)別系統(tǒng)中被檢測(cè)到的人臉的比例降低到了0.5%。我們希望在APP或網(wǎng)站上提供這種神經(jīng)網(wǎng)絡(luò)系統(tǒng),這是一個(gè)非常有意思的領(lǐng)域,有著非常大的潛力市場(chǎng),”Aarabi教授說(shuō)道,“另外研究報(bào)告也將在2018年IEEE國(guó)際多媒體信號(hào)處理研討會(huì)上發(fā)表”。
其實(shí),破壞人臉識(shí)別產(chǎn)品識(shí)別率的產(chǎn)品并不少見(jiàn)。早在2016年,卡內(nèi)基梅隆大學(xué)的研究人員就設(shè)計(jì)了一種眼鏡框,可以誤導(dǎo)面部識(shí)別系統(tǒng),使其產(chǎn)生錯(cuò)誤的識(shí)別。
該類軟件在學(xué)習(xí)人臉的模樣時(shí),它非常依靠于特定的細(xì)節(jié),如鼻子和眉毛的形狀??▋?nèi)基梅隆大學(xué)打造的眼鏡并不只是覆蓋那些臉部細(xì)節(jié),還會(huì)印上被計(jì)算機(jī)認(rèn)為是人臉細(xì)節(jié)的圖案。