破局“眼見為假”:誰在磨礪刺破Deepfakes之劍?

情感導(dǎo)師 8232

 添加導(dǎo)師微信MurieL0304

獲取更多愛情挽回攻略 婚姻修復(fù)技巧 戀愛脫單干貨

來源:創(chuàng)事記

歡迎關(guān)注“創(chuàng)事記”微信訂閱號(hào):sinachuangshiji

文/海怪

來源:腦極體(ID:unity007)

破局“眼見為假”:誰在磨礪刺破Deepfakes之劍?

自從攝影術(shù)發(fā)明的那一刻起,人們便開始孜孜不倦地進(jìn)行著技術(shù)改造。在今天,沒有一家手機(jī)廠商不在追求更多的攝像頭、更高的像素、更先進(jìn)的成像算法,似乎只為追求一張更逼真的影像。

我們真的在追求“真”么?這幾乎是一個(gè)完全無法驗(yàn)證的玄學(xué)問題。而我們卻很誠實(shí)地在做一些“去真存假”的事情。比如為照片添加濾鏡、為自拍磨皮美白、為視頻增添特效。再比如,我們興致盎然地把自己的臉替換到夢想中的明星身上。

看來追求“真實(shí)自我”其實(shí)成了一種自欺,而騙過眼睛讓大腦愉悅才是人們“真香”的追求,至少在視覺層面尤為明顯。以前,當(dāng)我們說到“以假亂真”、“惟妙惟肖”這些字眼的時(shí)候,往往帶有一種對藝術(shù)的敬意,因?yàn)檫@意味著常人難以實(shí)現(xiàn)的難度和巨大的成本。

然而,隨著人工智能中GAN(對抗式生成網(wǎng)絡(luò))的進(jìn)化,讓靜態(tài)圖像、音視頻中人物生成變得日益逼真且廉價(jià),類似Deepfakes這類AI換臉技術(shù)普及后,那么問題真的就來了。

2017年,一個(gè)名為“DeepFakes”的開發(fā)者把AI換臉技術(shù)開源,打開了AI造假的潘多拉盒子。Deepfakes成為了這一技術(shù)的專有名詞。2019年初,隨著一段“楊冪換臉朱茵”的視頻火爆網(wǎng)絡(luò),又開啟了中國的AI換臉元年。緊隨其后,各類AI換臉作品和應(yīng)用不斷出現(xiàn),AI換臉隨著普通人的 “嘗鮮”徹底走向了技術(shù)普及和產(chǎn)業(yè)失控。

首先,最顯著的影響就是AI換臉?biāo)破鸬囊粓錾橐曨l造假的黑產(chǎn)狂歡。不僅針對公眾人物、明星,甚至于只要在社交媒體多次上傳自拍照,每個(gè)人都要面對這一威脅。

更嚴(yán)重的是對于政治選舉、公共安全以及經(jīng)濟(jì)體系的威脅。一段關(guān)于政客受傷、重病的假視頻可能引起國內(nèi)的金融動(dòng)蕩甚至嚴(yán)重沖突。一段假冒權(quán)威人士發(fā)布恐怖襲擊、疾病災(zāi)害等假消息的視頻會(huì)引起群眾恐慌甚至暴力沖突。

最為深遠(yuǎn)的影響就是對于整個(gè)社會(huì)公信力的影響。越來越多的人從社交媒體獲得第一手信息。假視頻泛濫讓信息真?zhèn)坞y辨,比如刻意偽造的假新聞,模仿領(lǐng)導(dǎo)人、權(quán)威專家的權(quán)威信息。數(shù)以億計(jì)沒有專業(yè)辨識(shí)能力的普羅大眾會(huì)更容易輕信而被欺騙,引發(fā)更大的公信力危機(jī)。

作為一項(xiàng)日趨成熟且普遍應(yīng)用的技術(shù),AI換臉已成不容忽視的存在。

似乎除了色情造假產(chǎn)業(yè)的黑產(chǎn)狂歡外,受這一技術(shù)影響的相關(guān)幾方都亟需從當(dāng)前困境中突圍。對于政府來說,如何合理立法以限制造假內(nèi)容的生產(chǎn)和傳播又不越界妨礙民眾的言論自由?對于商業(yè)應(yīng)用來說,如何合理商用這項(xiàng)技術(shù)又避免侵權(quán)或引發(fā)信任危機(jī)?對于社交媒體來說,如何合理地限制這類造假音視頻內(nèi)容的傳播又不限制用戶的使用體驗(yàn)?

這些問題的解決,仍然亟待AI技術(shù)本身先行給出一套檢測和控制假視頻的解決方案。

無限游戲:

擊敗Deepfakes的AI檢測技術(shù)困境

由技術(shù)引發(fā)的災(zāi)難只能由更先進(jìn)的技術(shù)來解決,這似乎是AI研究者的唯一邏輯。AI換臉的造假檢測技術(shù),似乎成為這場技術(shù)困境突圍的最佳解決方案。

但由于AI換臉的驗(yàn)證檢測技術(shù)具有嚴(yán)重依賴以往模型的反應(yīng)機(jī)制,即當(dāng)前方法無法檢測新的Deepfakes算法。因此,AI換臉的檢測技術(shù)與造假技術(shù)將長期處在攻防賽狀態(tài)。

最早向Deepfakes發(fā)難的是美國國防部DAPRA。早在2018年5月,他們就設(shè)立了“媒體鑒證”項(xiàng)目,并與紐約州立大學(xué)開發(fā)出一款“反換臉”AI刑偵工具,通過有效地預(yù)測眼睛是否眨動(dòng)的狀態(tài),當(dāng)時(shí)準(zhǔn)確率達(dá)到 99%。然而這款工具還沒推廣就失效了,因?yàn)镈eepfakes技術(shù)進(jìn)化了。

2019年6月,加州大學(xué)伯克利分校和南加州大學(xué)的研究人員打造的AI檢測系統(tǒng)構(gòu)建了高度個(gè)人化的“軟生物識(shí)別指標(biāo)”,對于當(dāng)時(shí)的假視頻的總體識(shí)別率超過了95%。但該技術(shù)也存在一些破綻,面臨被新的Deepfake算法反制的挑戰(zhàn)。

因此,這場攻防戰(zhàn)的第一個(gè)困境就是技術(shù)演進(jìn)的悖論。研究人員如果要提出一個(gè)更好的檢測技術(shù)之前,必須提出一種能夠勝過當(dāng)前市面上流行的AI換臉技術(shù)的新方法。也就是說,就要先造出更鋒利的“矛”,才能有資格造出更可靠的“盾”。

因?yàn)榧词寡芯咳藛T不如此做,隨著AI算力越發(fā)易得,GAN算法的不斷增強(qiáng),AI換臉技術(shù)也在不斷升級(jí)完善。比如,近期英偉達(dá)公開了第二代人臉生成算法StyleGAN2的源代碼,它可以根據(jù)五官、發(fā)色生成自定義風(fēng)格的人臉圖像?;赟tyleGAN2也可以結(jié)合多張人臉圖像進(jìn)行人臉融合,生成的合成圖像同時(shí)具備模板圖像特征與目標(biāo)圖像特征,已經(jīng)達(dá)到騙過眾多人臉識(shí)別系統(tǒng)的程度。

第二個(gè)困境就是對抗AI造假的數(shù)據(jù)合法性的牽制。雖然網(wǎng)絡(luò)黑產(chǎn)有著龐大的Deepfakes假視頻數(shù)據(jù),但因其違法和侵權(quán)屬性不可能用于研究。而AI換臉檢測需要大量的原始目標(biāo)人臉以及替換后的人臉數(shù)據(jù),因此,研究團(tuán)隊(duì)必須花費(fèi)時(shí)間和巨大成本創(chuàng)建合規(guī)的數(shù)據(jù)集。

這一嘗試已經(jīng)開始,2019年初,來自德國和意大利兩所大學(xué)的AI研究者基于YouTube視頻生成了一段包含1000段假視頻的FaceForensics++數(shù)據(jù)集,用于訓(xùn)練鑒別造假視頻的神經(jīng)網(wǎng)絡(luò)。9月底,谷歌宣布開源的包含3000段真假視頻的大型 Deepfakes 數(shù)據(jù)集,納入FaceForensics基準(zhǔn)當(dāng)中,供研究社區(qū)免費(fèi)獲取并用于開發(fā)合成視頻檢測方法。

面對當(dāng)前這兩種技術(shù)困境,AI研究者有哪些方法可以應(yīng)對呢?

釜底抽薪與飽和攻擊:

AI換臉檢測解題新思路

近日,來自中國的兩個(gè)研究團(tuán)隊(duì)給出了不同的解決以上技術(shù)困境的解決方案。一種方案類似釜底抽薪,即針對AI換臉的底層邏輯去開發(fā)新的算法,即使不需要更多的數(shù)據(jù),也能取得很好的驗(yàn)證效果。另一種解決方案則類似飽和攻擊,他們從現(xiàn)有的數(shù)據(jù)集為基礎(chǔ),將數(shù)據(jù)集擴(kuò)充到一個(gè)新的更大規(guī)模、更高質(zhì)量的程度,從而應(yīng)對更多樣化的人臉造假視頻的檢測。

2020年1月,來自微軟研究院與北京大學(xué)的研究小組共同提出了一種全新的 AI 換臉框架FaceShifter,以及一種檢測偽造人臉圖像的方法Face X-Ray。前者可以極大提高換臉的高保真度,而后者則用于檢測出復(fù)雜偽造人臉圖像。

FaceShifter生成的高保真度換臉圖像,可以很好保留目標(biāo)人臉的頭部姿態(tài)、面部表情、光線、顏色、強(qiáng)度、背景以及其他遮擋物。其優(yōu)勢之處在于該模型無需人工標(biāo)注數(shù)據(jù)的訓(xùn)練下即可生成任何人臉。

簡單來說,F(xiàn)aceShifter與之前的AI換臉方法相比,效果表現(xiàn)更優(yōu)異。那這意味著,研究者同時(shí)提出的人臉造假的檢測工具必須更加強(qiáng)悍。

為此,F(xiàn)ace X-ray提出了一種全新的人臉偽造的圖像檢測方法。它通過顯示偽造圖像的混合邊界和真實(shí)圖像沒有混合來實(shí)現(xiàn)是否存在造假的檢測。這一方法就像是給被檢測的圖像拍攝了一張X光片一樣,讓其混合輪廓顯露原型。

同時(shí),相較于之前有監(jiān)督的人臉檢測方法會(huì)存在過度擬合的問題,F(xiàn)ace X-Ray不需要依賴于與特定人臉操作技術(shù)相關(guān)的偽造圖像的知識(shí)。由于是無監(jiān)督訓(xùn)練,它的算法可以支持在不使用任何方法生成假圖像知識(shí)的情況下進(jìn)行訓(xùn)練。因此,它可以從更通用性的意義上來進(jìn)行有效檢測。

Face X-Ray在人臉造假的圖像檢測上采取了一種更根本的解決問題的思路,即我們與其知道一個(gè)圖像是如何造假,不如知道一個(gè)圖像如何才是真的。Face X-Ray的解題邏輯就是:真圖像不會(huì)合成。

但可以預(yù)見的是AI換臉的技術(shù)演化也不會(huì)停步。比如說,AI換臉本身不再是A、B兩個(gè)面部圖像的混合疊加,而就是人臉生成算法基于A、B面部特征的直接生成新的一張面孔C。這樣Face X-Ray也面臨失效的嚴(yán)峻考驗(yàn)。

緊接著,商湯科技也加入這場攻防賽,他們則采用了類似飽和攻擊的戰(zhàn)術(shù)。據(jù)報(bào)道,商湯聯(lián)手新加坡南洋理工,推出了迄今為止最大的Deepfakes檢測數(shù)據(jù)集,DeeperForensics-1.0。該數(shù)據(jù)集包含60000個(gè)視頻,是現(xiàn)有同類數(shù)據(jù)集的10倍。

研究者意識(shí)到,之前數(shù)據(jù)集中的視頻存在著數(shù)量少、質(zhì)量低以及過于人為化的特點(diǎn);同時(shí)在一些假視頻檢測中,訓(xùn)練視頻和測試視頻存在高度相似性,這些讓人臉造假檢測的實(shí)際效力有待檢驗(yàn)。所以,他們提出的解決方案就是提供一個(gè)盡可能包含了潛在變化的真實(shí)世界詳盡可能的數(shù)據(jù)集,用于增強(qiáng)人臉造假檢測模型的打造。當(dāng)然,最終結(jié)果也驗(yàn)證了質(zhì)量好、數(shù)據(jù)量大、多樣性高的數(shù)據(jù)集可以明顯提高視頻人臉偽造的基準(zhǔn)測試結(jié)果。

在這個(gè)信奉暴力計(jì)算的時(shí)代,商湯實(shí)力演繹了一次“大力出奇跡”的策略,用飽和攻擊的方式去迎戰(zhàn)Deepfakes層出不窮的狡計(jì),而這一工作確實(shí)給后面的研究者提供了研究的便利。

目前,AI換臉的檢測技術(shù)仍是少數(shù)研究機(jī)構(gòu)的實(shí)驗(yàn)品。但隨著AI換臉技術(shù)的日臻完善,社交媒體以及眾多互聯(lián)網(wǎng)平臺(tái)如何利用AI檢測工具做好換臉圖像以及假視頻的甄別,已經(jīng)是迫在眉睫的事情。

被技術(shù)重塑的未來:

反Deepfakes的商業(yè)化可能

AI換臉帶來的技術(shù)挑戰(zhàn),除了以上AI研究機(jī)構(gòu)和研究者的努力,還需要更多利益相關(guān)方的參與和支持。

正如同這場“對抗賽”并非來自實(shí)驗(yàn)室中華山論劍,背后還有像Facebook、Twitter、YouTube、這類平臺(tái)型機(jī)構(gòu),作為支持者和主導(dǎo)者。比如,去年9月,F(xiàn)acebook宣布啟動(dòng)一項(xiàng)“Deepfakes視頻檢測挑戰(zhàn)賽”(DFDC),懸賞1000萬美元以期找到有效檢測利用Deepfakes技術(shù)生成的假視頻的方案。大賽提供一個(gè)數(shù)據(jù)集和排行榜,通過撥款和獎(jiǎng)勵(lì)方式以刺激行業(yè)創(chuàng)造新的檢測工具,從而防止被AI操縱的媒體誤導(dǎo)普通用戶。這無疑給中小AI研究機(jī)構(gòu)很大的鼓勵(lì)和資金支持。

要說其背后原因,自然是因?yàn)樯缃幻襟w是造假視頻傳播的主要陣地,也是放大其不良影響的重要因素。人們常說造謠一張嘴、辟謠跑斷腿,當(dāng)Deepfakes制造的虛假視頻在Facebook、Twitter上瘋狂傳播時(shí),就已經(jīng)造成了不可挽回的損失。而苦主想要追責(zé)時(shí),第一步要做的就是問責(zé)平臺(tái)方。為了保證平臺(tái)上內(nèi)容的真實(shí)可控,社交媒體企業(yè)必然要找到Deepfakes視頻的甄別方式。

因?yàn)镈eepfakes帶來的負(fù)面效應(yīng)與名人政客、社交媒體平臺(tái)有著切實(shí)的利益關(guān)聯(lián),所以Deepfakes檢測技術(shù)也有著很明晰的商業(yè)前景。例如在未來,社交媒體采購Deepfakes甄別技術(shù),將其加入平臺(tái)視頻發(fā)布審核流程當(dāng)中,很可能會(huì)成為一種常態(tài)。同時(shí)面對假視頻泛濫的情況,或許還有可能出現(xiàn)權(quán)威的“視頻檢驗(yàn)機(jī)構(gòu)”,幫助受害者證實(shí)視頻的真假。

更重要的是,AI換臉代表的造假技術(shù)的狂潮不可逆轉(zhuǎn),我們也必須學(xué)會(huì)更好地適應(yīng)這一趨勢。就像PS的普及讓我們對圖像的造假已經(jīng)基本免疫一樣,AI造假視頻的普及也會(huì)讓人們逐漸適應(yīng),只不過,對于大多數(shù)人而言,需要付出的學(xué)習(xí)成本和認(rèn)知轉(zhuǎn)變的成本有些高昂。在這一過程中,不論是技術(shù)開發(fā)者還是傳播平臺(tái),都有責(zé)任向用戶進(jìn)行宣教。

當(dāng)“眼見為實(shí)”的邊界真正被打破,我們看待世界的規(guī)則需要重新被塑造。首先,向大眾普及Deepfake這項(xiàng)技術(shù)也變得非常重要。就如同身體對抗病毒的最好方式,就是通過注射疫苗先增強(qiáng)身體的抵抗力。其次,當(dāng)人們意識(shí)到眼見的一切視頻都有可能為假的時(shí)候,人們又可能會(huì)更重視有公信力和權(quán)威性的媒體信息平臺(tái)。

這也許是“眼見為假”時(shí)代帶給人們的更多的文明副產(chǎn)品之一。

評論列表

頭像
2024-08-28 17:08:56

情感分析的比較透徹,男女朋友們可以多學(xué)習(xí)學(xué)習(xí)

頭像
2024-07-27 19:07:15

如果發(fā)信息,對方就是不回復(fù),還不刪微信怎么挽回?

頭像
2024-02-08 23:02:58

老師,可以咨詢下嗎?

頭像
2023-10-19 22:10:48

老師,可以咨詢下嗎?

 添加導(dǎo)師微信MurieL0304

獲取更多愛情挽回攻略 婚姻修復(fù)技巧 戀愛脫單干貨

發(fā)表評論 (已有4條評論)