現(xiàn)在位置:主頁 > 國內(nèi) > 當(dāng)馬賽克被AI看穿,我們的隱私將藏于何處?

當(dāng)馬賽克被AI看穿,我們的隱私將藏于何處?

作者:編輯 ? 時間:2018-08-13 ? 瀏覽:人次

圖片來源@視覺中國

提起馬賽克,相信很多神級宅男都恨得牙癢癢:費勁吧啦地下載了一兩個小時,一打開,有碼……估計摔電腦的心都有。

當(dāng)然馬賽克除了有時候會耽誤宅男的心情,更多的時候是起到了非常重要的保護作用。比如對一些涉及恐怖、血腥內(nèi)容,或者警務(wù)人員的畫面時候,打個馬賽克能避免對人造成不適,也可以保護公職人員的安全。而且,電影中打碼也并不是為了故意要傷宅男的心,一切都是商業(yè)需要??傮w來說,馬賽克在日常使用中基本上沒什么正經(jīng)值得黑的地方。

但問題在于,在人工智能時代來臨之后,馬賽克可能要面臨被“解碼”的風(fēng)險了。

為了好好打碼,AI沒閑著

雖然日常圖片、視頻中我們經(jīng)常會接觸到馬賽克,但很多人對它的由來可能并不清楚。

“馬賽克”是英文單詞“mosaic”一詞的音譯,其本為一種鑲嵌工藝,呈塊狀,源于古希臘。而人們對圖像進行區(qū)域性模糊處理的方法就是,將特定區(qū)域的色階細化,并造成色塊打亂的效果。這樣的色塊就像一個個小方格,與馬賽克非常相似。因此,這種圖像模糊處理就被稱為馬賽克。

其實更簡單點說,就是調(diào)低圖像分辨率。本來一張臉可以細分為1000萬個像素點,現(xiàn)在給你變成10個,你還能認出來嗎?

所以,我們說碼打得重不重,就是看分辨率調(diào)低的程度如何。

既然是圖像處理,馬賽克自然基本有兩種場景:圖片和視頻。

給圖片打碼基本上不存在什么難度,由于圖片是靜態(tài)的,因此選中區(qū)域,直接操作就可以。但涉及給動態(tài)視頻打碼的時候,技術(shù)難度就出來了。

視頻是由一幀一幀的圖片組成的,看起來要解決這個問題最直接的方式就是對每一幀圖片都打碼,然后組合在一起,視頻打碼就大功告成。但顯然不太可能。傳統(tǒng)的電影膠片一秒鐘有24幀,即便是處理一個5分鐘的視頻,也要處理上千張圖片,活干完估計看什么都成馬賽克了。

為此,人們也是想了很多辦法。YouTube曾推出過一款自定義模糊工具,用戶們可以通過該工具對自己的車牌號、門牌號、銀行卡等一系列隱私內(nèi)容打碼。表面上來看,技術(shù)小白也能夠輕松打上馬賽克。但尷尬的是,這款工具很容易擴大打碼范圍,比如你給車牌打個碼,很可能整個車頭都沒了;要給自己的臉打個碼,可能會連累到整個身體一起模糊。

而微軟開發(fā)的打碼工具可能會跟蹤得更加精準。該工具基于人工智能技術(shù)打造:通過建立一個深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),其可以精準檢測到視頻中的人臉,從而實現(xiàn)跟蹤。并且為了避免對視頻中其他人物的“誤碼”,其能夠?qū)崿F(xiàn)對不同人臉的識別。通過這一套流程,人工智能打碼的表現(xiàn)還不錯。

利用人工智能打碼可以說是打碼技術(shù)的一大進步,人們不必一幀一幀地進行圖像處理,也不必使用笨笨的視頻處理軟件對視頻片段進行提取、復(fù)制、渲染、跟蹤,也就在很大程度上避免了會時不時出現(xiàn)馬賽克跟不上目標移動速度而導(dǎo)致暴露的情況出現(xiàn)。

可是,馬賽克帶著保護隱私的目的而來,卻更激發(fā)了人們對背后真實內(nèi)容的好奇心。AI打碼沒閑著,還有一群“解碼”的人也是忙忙碌碌。

以子之矛攻子之盾:看起來AI似乎更擅長“解碼”

解碼的邏輯也很簡單:既然你馬賽克是模糊圖像處理,那我給你清晰化不就完了嗎?

不久前英偉達、芬蘭阿爾托大學(xué)和麻省理工就聯(lián)合開發(fā)了一項技術(shù),利用AI可以在幾毫秒內(nèi)對模糊圖像進行精細化處理。事實上,類似的模糊圖片處理技術(shù)有很多,對其而言,處理一些打碼層級較低的圖片可能還有點做用,稍微復(fù)雜點兒就要靠邊站了。

當(dāng)然也有人正兒八經(jīng)地干馬賽克消除技術(shù)的研發(fā)。

得克薩斯大學(xué)2016年曾經(jīng)開發(fā)出一種消除馬賽克的手段,能夠有效地穿透馬賽克的遮擋,從而識別出圖片信息。技術(shù)人員通過建立一個面部和文字識別系統(tǒng),利用網(wǎng)絡(luò)上的圖片對其進行訓(xùn)練,最終對模糊視頻中人臉還原準確率達到80%以上,對經(jīng)過嚴重馬賽克處理的人臉也可以實現(xiàn)50%左右的正確還原率。

能做到這個程度,應(yīng)該說足夠引起那些隨隨便便就打打碼的人的警惕了。

而去年谷歌則來個了更狠的。就在微軟推出人臉識別的移動打碼之后,谷歌宣布,通過采用全新的像素遞歸超分辨率技術(shù),Google brain已經(jīng)獲取了圖像高低像素之間的變化規(guī)律,因此可以實現(xiàn)對打碼內(nèi)容的更精準匹配。比如學(xué)到紅的是嘴唇之后,它就會把相應(yīng)的部分還原成嘴唇。

也就是說,通過學(xué)習(xí)和訓(xùn)練,Google brain可以針對馬賽克“腦補”出照片中人臉的原貌。

看起來谷歌是很不給微軟面子啊……

相信宅男朋友們已經(jīng)躍躍欲試,巴不得谷歌趕緊把這項技術(shù)推到實際應(yīng)用當(dāng)中,免得一次又一次在希望和失望之間輾轉(zhuǎn)反側(cè)了。

但客觀來說,打碼實際上是對圖片的一種不可逆的損害行為。因此,與其說對圖片的“還原”,更準確的說法應(yīng)該是“猜測”。利用人工智能對馬賽克圖片進行通俗意義上的還原處理,一個必要的條件就是大量的圖片對比。無論是得克薩斯大學(xué)還是谷歌都是如此,這也就意味著在缺乏原圖素材的情況下,人工智能也只能是無限地接近原圖。

當(dāng)馬賽克被擊穿,我們的隱私還安全嗎?

但是,接近就意味著可能,或者說不一定與原圖相同,但可以做到高度相似。從這個角度上來說,馬賽克消除技術(shù)的出現(xiàn)無疑會對我們文章開頭提到的隱私安全問題產(chǎn)生巨大威脅。

為了應(yīng)對這種誰也不愿意看到的可能,我們或許可以考慮以下幾種方式。

第一,對進行圖像加密修改。得克薩斯大學(xué)雖然對模糊視頻和打碼視頻的識別率很高,但對采用了南加州大學(xué)開發(fā)的P3技術(shù)(Privacy-Preserving Photo Sharing,隱私保護照片共享)修改的圖像卻僅僅只有17%的識別正確率。該技術(shù)正是為保證照片在互聯(lián)網(wǎng)時代傳播的安全性而研發(fā)。類似的技術(shù)還有很多,其通過對照片的細節(jié)特征進行修改,可以誤導(dǎo)人工智能猜測的方向,從而保護隱私安全。

第二,改變打碼形式。西蒙弗雷澤大學(xué)的研究人員提出了一種利用人工智能將需要打碼的人臉藝術(shù)化的方法。通過這種方式,其可以表現(xiàn)出說話人的情緒特征,使視覺效果變得不那么干巴巴的。畢竟總是看著一片馬賽克晃來晃去視覺感受確實不那么好。

而且,經(jīng)過抽象畫處理的人臉,看起來應(yīng)基本跟人臉沒什么太大的關(guān)系了……如果谷歌還想識別的話,恐怕要在更為復(fù)雜的抽象派藝術(shù)畫作上好好費點力氣,估計沒個十年八年可能出不了師。

第三,采用極端“打碼”。馬賽克圖片之所以能被“還原”,一方面在于分辨率降低的程度不夠,二是打碼之后的圖片仍然會具備一定量的原圖特征。那么,想要不被認出來,干脆就粗暴地遮蓋吧。往臉上貼個黑條、打個白光,或者想要表達情緒的話蓋個大表情包之類的,人工智能應(yīng)該是沒有辦法了。但是這招還是謹慎使用,畢竟相較一個大黑條在視頻上飄來飄去,還是馬賽克舒服一點。

當(dāng)然,面對馬賽克消除技術(shù)我們也不必過于焦慮和緊張。一方面其技術(shù)成熟度還遠遠不夠,目前還局限于對人臉的識別“還原”,文字、商標等尚未涉及;另一方面圖像模糊清晰化技術(shù)在很多場景性都是有積極意義的,比如刑偵案件中關(guān)鍵圖片的復(fù)原、考古資料的清晰化,甚至家里翻新個老照片等。

與模糊圖片清晰化處理相比,顯然破解馬賽克是最難的一關(guān)。如果連馬賽克都能被斬于馬下,那日常的圖片、視頻的高清還原則更是不在話下。況且,如果最終馬賽克消除技術(shù)真的成熟,由于其能輕易戳穿隱私,勢必也將面臨法律、道德層面的制約。

所以,在制約得當(dāng)?shù)那闆r下,馬賽克這種東西,該打還是得打。

轉(zhuǎn)載請保留原文鏈接:http://parkingblocks4less.com/a/guona/20180813/10326.html上一篇:上一篇:老外苦學(xué)中文!支付寶實在看不去了
下一篇:下一篇:沒有了