道高一丈!反人臉識別技術(shù)取得重大突破
人臉識別技術(shù)在廣泛應(yīng)用的同時(shí),也引發(fā)了公眾對隱私信息泄露的擔(dān)憂。好消息是,最近“反‘人臉識別技術(shù)’技術(shù)”的研究前沿出現(xiàn)了突破性進(jìn)展。
“看山不是山”
首先是來自挪威科技大學(xué)的《DeepPrivacy:A Generative Adversarial Network for Face Anonymization》用新的更有挑戰(zhàn)表示的方法欺騙了人臉識別系統(tǒng):在不改變原來的數(shù)據(jù)分布的前提下把人臉匿名化,更通俗的說法來說就是輸出一張人臉識別系統(tǒng)無法正確識別的人臉,但是幾乎不更改原圖中人臉的姿態(tài)和樣貌。
根據(jù)作者們的測試,經(jīng)過他們技術(shù)處理的人臉仍然保持了接近于原圖的人臉可識別性。一般而言,人臉識別對于匿名化后的圖像,識別出人臉的平均準(zhǔn)確率只下降了 0.7% 。而人臉含有的自然信息卻是 100% 不重合的。
這種技術(shù)目前主要是應(yīng)用在靜態(tài)的圖片上,做到“看山不是山”的效果。而對于動(dòng)態(tài)場景,還需要挖掘該技術(shù)的更多潛能。
“看水不是水”
在動(dòng)態(tài)場景的反人臉識別上,F(xiàn)acebook走的更遠(yuǎn)一些。
Facebook AI Research(FAIR)研發(fā)了一種“去識別(de-identification)”系統(tǒng),該系統(tǒng)通可以通過機(jī)器學(xué)習(xí)實(shí)時(shí)更改視頻中人臉的面部特征,用來欺騙面部識別系統(tǒng),讓其不能精準(zhǔn)識別人臉數(shù)據(jù)。比方說,讓面部識別系統(tǒng)將你識別為一位女明星。
相比于應(yīng)用于靜止圖像的技術(shù),F(xiàn)AIR推出的系統(tǒng)可以直接應(yīng)用在實(shí)時(shí)的視頻中,可以說是做到了“看水不是水”。
Facebook AI研究工程師和特拉維夫大學(xué)教授Lior Wolf表示,他們將對抗性自動(dòng)編碼器與分類器網(wǎng)絡(luò)配對,讓視頻中的人臉稍微扭曲,在迷惑人臉識別系統(tǒng)的同時(shí),又能讓人們認(rèn)出這個(gè)人的樣貌。
此前由于被爆出涉嫌濫用用戶的面部識別數(shù)據(jù),F(xiàn)acebook被伊利諾伊州市民告上法庭。面臨近350億美元的集體訴訟,F(xiàn)acebook也需要用技術(shù)顯示他們保護(hù)用戶面部信息的決心。
Facebook的研究人員表示,“人臉識別可能會讓我們的隱私泄露,并且‘換臉’技術(shù)可能會被用于制作誤導(dǎo)性視頻識別。”Facebook研究這項(xiàng)技術(shù)也是為了去除視頻中的隱私信息。
▼
人工智能技術(shù)的進(jìn)步對人類的信息安全是一個(gè)巨大的挑戰(zhàn),但是也并非完全不可控。
一方面可以限制科技可以踏足的領(lǐng)域,例如克隆領(lǐng)域就受到非常嚴(yán)格的監(jiān)管,另一方面也可以“用AI來打敗AI”,通過對反制手段的不斷升級來保證技術(shù)一旦被濫用,有充足的手段來加以限制。
反人臉識別技術(shù)日漸成熟的背后是人類與技術(shù)相互適應(yīng)的過程,技術(shù)終究是要服務(wù)于人的,對可能存在風(fēng)險(xiǎn)的技術(shù)加以改造、限制,然后再加以利用,從鉆木取火的時(shí)代便是如此。對于近幾年科學(xué)技術(shù)的突飛猛進(jìn),或許我們真的是過分擔(dān)心了。
? Copyright 2013 南京奧特賽人工智能技術(shù)研發(fā)有限公司 版權(quán)所有 備案號:蘇ICP備19032300號-1 蘇公網(wǎng)安備32011602010459 技術(shù)支持:科威鯨網(wǎng)絡(luò)