現(xiàn)在位置:主頁(yè) > 國(guó)內(nèi) > 短視頻造假術(shù),你值得擁有

短視頻造假術(shù),你值得擁有

作者:編輯 ? 時(shí)間:2018-07-05 ? 瀏覽:人次

文 | 顏璇

來(lái)源 | 智能相對(duì)論(aixdlun)

從古至今,“欺騙”和“造假”這兩個(gè)詞可謂是貫穿了人類的歷史。到了現(xiàn)代社會(huì),面對(duì)著互聯(lián)網(wǎng)上那些似是而非的龐雜信息,“有圖有真相”開(kāi)始成為網(wǎng)友們的訴求。

可以看出,絕大多數(shù)人都是認(rèn)同一點(diǎn)的——只有拿出堅(jiān)實(shí)的證據(jù),才能證明你說(shuō)的就是真相。將這些證據(jù)的說(shuō)服力排一個(gè)序,大概是文本>照片>音頻>視頻。

然而,隨著PS的興起,“照騙”漸漸失去了人們的信任,音頻和視頻已經(jīng)被視為更可靠的證據(jù)來(lái)源,但是,在AI入軍短視頻制作后,事情正在發(fā)生著改變。在未來(lái),人們可能需要處理更多真假難辨的音視頻。

AI在視頻造假上的進(jìn)階之路

在尋常人看來(lái),短視頻造假的方式無(wú)非就是一些“斷章取義”的剪輯罷了。然而,AI可沒(méi)那么簡(jiǎn)單,在短視頻“造假”上,它不止要以假亂真,更要無(wú)中生有。通常來(lái)說(shuō),AI在短視頻上造假的方式有以下三種:

1. 初級(jí)階段:移花接木

在短視頻“造假術(shù)”里,最重要的不是圖像的拼接,而是音頻的連續(xù)性。想一想,即使你將奧巴馬和特朗普兩個(gè)人的視頻剪輯在一起,想要告訴大家他們“同臺(tái)演出”了,沒(méi)有他們講話的聲音,其效果大概就等于N張靜態(tài)照片疊加而已。

AI正在試圖合成人們?cè)趯?shí)際中從未說(shuō)過(guò)的話。研究人員就曾利用奧巴馬的演講視頻訓(xùn)練AI的學(xué)習(xí)系統(tǒng),讓系統(tǒng)的神經(jīng)網(wǎng)絡(luò)學(xué)會(huì)如何將各種語(yǔ)音特征與對(duì)應(yīng)的口型聯(lián)系在一起,生成CGI唇動(dòng),在3D姿態(tài)匹配的幫助下將CGI唇動(dòng)與奧巴馬的視頻整合在一起。也就是說(shuō),他們能夠利用相關(guān)音軌偽造一段令人難辨真?zhèn)蔚囊曨l。

利用AI系統(tǒng),用戶可以任意編輯人類語(yǔ)音,Adobe曾表示它可以像 Photoshop 編輯圖片一樣用于調(diào)整視頻中的發(fā)音和對(duì)話。我們現(xiàn)在可以創(chuàng)建政治家、名人、演說(shuō)家的視頻片段,并且不論內(nèi)容如何。

2. 中級(jí)階段:改頭換面

在這個(gè)階段里,AI就不是合成了,而是對(duì)視頻里的內(nèi)容進(jìn)行編輯。通過(guò)人臉檢測(cè)和五官識(shí)別,對(duì)人臉的關(guān)鍵點(diǎn)實(shí)時(shí)追蹤,讓人們?cè)趧?dòng)態(tài)視頻中可以對(duì)自己臉進(jìn)行改造。

這一技術(shù)屬于動(dòng)作捕捉技術(shù)中的一個(gè)分支,叫面部捕捉。這些臉上的黃點(diǎn),就是人臉表情變化中的關(guān)鍵點(diǎn),通過(guò)面部追蹤,計(jì)算機(jī)只需要這些信息就能合成表情。

近日,微視就發(fā)布了安卓4.4版本,推出了實(shí)時(shí)美妝、五官重塑等新功能,包括此前已在iOS版本上線的實(shí)時(shí)長(zhǎng)腿、音控魔法功能,也在安卓上同步更新。

視頻里化妝都是小兒科了,AI還能在視頻里給你換臉呢。在電影《星球大戰(zhàn)外傳:俠盜一號(hào)》中,技術(shù)人員通過(guò)捕捉一位現(xiàn)代演員蓋·亨利的表情,合成了另外一位已經(jīng)逝世的演員彼得·庫(kù)欣,使其再次出現(xiàn)在了大熒幕上。

3. 高級(jí)階段:無(wú)中生有

合成聲音尚能理解,合成動(dòng)作你敢相信嗎?近日,在MIT(麻省理工學(xué)院)的論文Synthesizing Images of Humans in Unseen Poses中,研究人員提出了一種模塊化的生成神經(jīng)網(wǎng)絡(luò),用從人類運(yùn)動(dòng)視頻中提取的成對(duì)圖像和姿勢(shì)訓(xùn)練之后,它能夠?yàn)橐粋€(gè)人合成出沒(méi)做過(guò)的新姿勢(shì)。而且,這個(gè)模型在沒(méi)有經(jīng)過(guò)刻意訓(xùn)練的情況下,能夠生成一段連續(xù)的視頻。

也就是說(shuō),單憑一張照片,AI就能隨意擺布照片中的人,使人物作出一系列動(dòng)作,視頻的合成非常自然。

(圖為該技術(shù)合成的網(wǎng)球運(yùn)動(dòng)視頻 GIF來(lái)源:量子位 公眾號(hào))

這當(dāng)然只是新技術(shù)的冰山一角,我們很難對(duì)現(xiàn)代人工智能的視頻處理技術(shù)做出全面的概述,但我們總能從中找出一些有意思的應(yīng)用。例如:從一張 2D 圖片中創(chuàng)建 3D 面部模型;改變視頻中的光源和陰影;在總統(tǒng)選舉直播中讓特朗普變成禿頭等等。

偽造與證偽的技術(shù)總是交互上升

不得不說(shuō),AI確實(shí)具有很強(qiáng)的視頻造假能力。但我們也逐漸意識(shí)到了視頻造假的危害。隨意放在網(wǎng)上的視頻和聲音都需要我們?nèi)フJ(rèn)真辨別,如果有非法分子利用該技術(shù)進(jìn)行信息詐騙,我們雖然不是權(quán)貴,但也經(jīng)不起損失。

尤其在新聞業(yè),一旦人們知道目前有偽造的視頻和音頻在傳播,即使他們看到的是真實(shí)視頻,也會(huì)開(kāi)始產(chǎn)生懷疑。所以,如果AI能夠讓我們像處理圖片一樣輕松處理音頻、視頻內(nèi)容,這其實(shí)在某種程度上削弱了媒體的可信度。

幸運(yùn)的是,道高一尺,魔高一丈,偽造與證偽的技術(shù)總是交互上升。這就是一場(chǎng)“軍備競(jìng)賽”。AI讓越來(lái)越多的人都有能力進(jìn)行偽造,但研究人員也不斷在開(kāi)發(fā)更加精密的技術(shù)來(lái)增強(qiáng)音頻、圖片和和視頻的鑒別。通過(guò)不斷增加造假難度,使得非法分子造假的成本和技能要求越來(lái)越高。

現(xiàn)在,鑒別AI所做的偽造和處理其實(shí)并不難,模糊處理是一種最常見(jiàn)的方法,低分辨率就會(huì)讓它“一看就是假的?!?/p>

除了畫質(zhì),還有畫幅的甄別。在短視頻里,畫面里的一點(diǎn)改動(dòng)憑借人的肉眼是很難識(shí)別的。在 50% 的情況下人類是可以正確區(qū)分的,而且大部分是隨機(jī)猜測(cè)。當(dāng)AI通過(guò)大量的深度學(xué)習(xí)后,卷積神經(jīng)網(wǎng)絡(luò)可以在 87 %到 98 %的情況下正確區(qū)分視頻畫面里修改過(guò)的和未修改過(guò)的圖像。

德國(guó)慕尼黑技術(shù)大學(xué)的研究人員還開(kāi)發(fā)了一種名為 “XceptionNet” 的算法,它能快速發(fā)現(xiàn)發(fā)布在網(wǎng)上的偽造視頻,除此之外,還可以用來(lái)識(shí)別互聯(lián)網(wǎng)上的誤導(dǎo)性視頻。這個(gè)人工智能算法主要集成到瀏覽器或社交媒體插件中,在后臺(tái)運(yùn)行,如果它識(shí)別出被操縱的圖像或視頻,它就會(huì)給用戶發(fā)布警告信息,向視頻中涉及的人員透露他們被“偽造”了。

造假不如造回憶

仔細(xì)想一想,“造假”似乎總是讓人有著不好的聯(lián)想,尤其是多媒體的造假,更是怎么看都覺(jué)得可怕。然而,還是那句老話,技術(shù)是無(wú)罪的,有罪的是那些有著邪惡用心的人。

將AI造假術(shù)的使用者換一批人,是不是更能物盡其用呢?有人說(shuō),人會(huì)經(jīng)歷三次死亡:第一次是身體停止運(yùn)轉(zhuǎn)導(dǎo)致的生理上死亡;第二次是舉行完葬禮代表你社會(huì)位置的消失;第三次是當(dāng)世界上沒(méi)人再記得你的時(shí)候,真正意義上的死亡。

當(dāng)你的親人即將離開(kāi)這個(gè)世界的時(shí)候,你是否想過(guò)用科技的方式,將親人的音容笑貌化為情感寄托,換一種形式陪伴在你身邊呢?也許這樣,也能讓親人的“第三次死亡”來(lái)得更慢一點(diǎn)。

目前,就已經(jīng)有人通過(guò)語(yǔ)音合成技術(shù)記錄下了自己的聲音,將自己的聲音載入了一個(gè)智能音箱,以此來(lái)確保即使在自己去世后,親人也能與自己進(jìn)行語(yǔ)音交互。

而如果能通過(guò)一張照片就換來(lái)親人“栩栩如生”的動(dòng)態(tài),未嘗不是人們一解相思之苦的辦法。

AI造假短視頻應(yīng)該是一個(gè)不斷提升價(jià)值的過(guò)程,而不是被宵小們所利用。一方面,AI可以建立豐富的數(shù)據(jù)庫(kù),依賴于深度學(xué)習(xí)來(lái)進(jìn)行更多應(yīng)用場(chǎng)景的選擇,使得這些在視頻里被“復(fù)活”的人們,能夠在不同的場(chǎng)景里出現(xiàn),滿足人們的更多情感需求。另一方面,將造假變成造回憶,收集某個(gè)人的圖像和音頻素材,為用戶個(gè)性化建模,實(shí)現(xiàn)一對(duì)一的記憶歸屬。

結(jié)論:

其實(shí),我們完全不用把AI造假想得那么壞。技術(shù)不是目的,只是手段,找對(duì)了用途,“造假術(shù)”也是有情懷的。

專欄作者投稿文章,不代表官方立場(chǎng)。

轉(zhuǎn)載請(qǐng)保留原文鏈接:http://parkingblocks4less.com/a/guona/20180705/8945.html上一篇:上一篇:年輕人不再想“占有”奢侈品 共享會(huì)是一門好生意嗎
下一篇:下一篇:沒(méi)有了