

利維坦按:
(openai.com/blog/openai-api/)
(arxiv.org/abs/2009.06807)
我們有一個新號【利維坦行星】,可以關注

你見過貝拉克·奧巴馬罵唐納德·川普是「徹頭徹尾的白痴」嗎,見過馬克·扎克伯格吹噓自己「竊取了數十億人的數據,並玩弄於股掌」嗎,見過瓊恩·雪諾為《權力的遊戲》的悽慘結局而由衷道歉嗎?你若回答「是」,便是看到了深度偽造(DeepFake)。
深度偽造奧巴馬的視頻。© youtube
深度偽造是21世紀人們對Photoshop的開發,使用「深度學習」這種人工智能形式來捏造虛假圖像,因此得名「深度偽造」。要想讓人們覺得一個新詞是由某個政客所說,想要在自己喜愛的電影裡當影星,或者像專業舞者那樣翩翩起舞,那麼,是時候進行深度偽造了。
深度偽造作用何在?
很多時候其為欲望所需。2019年9月,人工智能公司Deeptrace在網上檢索出1.5萬個深度偽造視頻,且數量9個月內翻了近一倍,出乎意料的是,其中96%是小片片,其中99%將女明星換臉到小片片演員身上。

新技術的存在,讓許多小白都可以用少量照片來進行深度偽造,這類假視頻很可能會蔓延,不僅僅再局限於明星圈,助長復仇情色(revenge porn,指在未經當事人同意的情況下擅自發布露骨圖片或視頻到網上,編者注)。正如波士頓大學(Boston University)法學教授丹妮爾·西特龍(Danielle Citron)所言:「深度偽造技術正用作針對女性的武器。「除了小片片,還有大量的惡搞、諷刺和惡作劇因素參差其中。
僅僅能偽造視頻嗎?
答案是否定的。
深度偽造技術可以從零開始,捏造出令人信服、但完全虛構的照片。彭博社記者「梅西·金斯利(Maisy Kinsley)」在領英網(Linkedin)和推特上都有個人資料,而此人在現實中並不存在,這很可能就是深度偽造。另一個領英網虛擬人「凱蒂·瓊斯(Katie Jones)」自稱在美國戰略與國際研究中心工作,但人們認為,這是為外國間諜活動而進行的深度偽造。

英國前首相特蕾莎·梅的真實鏡頭(左)與使用深度偽造技術合成的影像(右)。© Gizmodo Australia
音頻也可以進行深度偽造,用於製作公眾人物的「聲音皮膚(voice skin)」或「聲音克隆(voice clone)」。德國一家能源公司在英國設有子公司,2019年3月,該子公司首席執行官在接到一通電話後,向匈牙利的一個銀行賬戶支付了近20萬英鎊。騙子模仿德國首席執行官的聲音對其進行詐騙,該公司的保險公司認為這個聲音是深度偽造的,但尚無證據。據報道,類似的詐騙案例實際上是竊取了WhatsApp的錄音語音信息,並對其進行深度偽造。

如何進行深度偽造?
高校研究人員和特效工作室一直以來都在在推動視頻和圖像處理突破可能性邊界。深度偽造最初源於一個名為「deepfakes」的Reddit社交網站用戶, 該用戶於2017年在 Reddit上發布了經偽造過的色情視頻片段。這些視頻將色情演員換臉成蓋爾·加朵(Gal Gadot)、泰勒·斯威夫特(Taylor Swift)、斯嘉麗·約翰遜(Scarlett Johansson)等名人。

製作一段換臉視頻需要以下幾個步驟。首先,你要運行一種叫做編碼器的AI算法,對比數千張名人與小片片演員的面部照片,編碼器會找出並學習兩張臉之間的相似之處,並將其化為兩人共有特徵,在這個過程中,算法對圖像進行壓縮。然後,用另一稱作解碼器的AI算法來解壓圖像,恢復人臉。
人臉之間不盡相同,你需要訓練一個解碼器來恢復第一個人的臉,訓練另一個解碼器來恢復第二個人的臉。想要進行換臉,你只需將編碼後的圖像輸入「錯誤」的解碼器。例如,將A臉部的壓縮圖像輸入B的解碼器,然後,解碼器用A的面部表情重建B的臉,要想製作出以假亂真的視頻,就必須逐幀繪製,循環往復。

另一種深度偽造的方法是使用生成對抗網絡(generative adversarial network ),簡稱Gan。Gan讓兩種人工智能算法相互對抗,第一種算法稱為生成器(generator),對其輸入隨機噪聲,並將其轉化為圖像。然後,合成圖像就被添加到如名人畫像等真實圖像中,再將這些真實圖像輸入到第二個算法——鑑別器(discriminator)之中。起初,這些合成圖像和人臉相去甚遠,但不斷重複這一過程,加之性能反饋,鑑別器和生成器能力都會得到提高。只要有足夠的循環和反饋,生成器就會開始生成極近逼真的名人臉,但這些名人卻並不存在。
深度偽造背後的踐行者是哪些人?
從學術和工業研究人員到業餘愛好者,從視覺效果工作室和色情作品製作者,每個領域幾乎都有人涉獵。政府很有可能也會涉足這項技術,將其作為一大在線戰略,用其給極端組織冠以臭名,並擾亂其運作,或者與目標人物取得聯繫。
深度偽造需要什麼樣的技術?
要是在普通電腦上進行深度偽造,想要做出以假亂真的效果簡直是天方夜譚。
大多數深度偽造都是在高端台式機上創建的,其顯卡算力極強,質量更高的深度偽造則是在雲計算設備上製作生成,這將處理時間從數天或數周縮減至數小時,但同時製作者也需要掌握相關專業知識,尤其是優化、補全視頻,減少閃爍和其他視覺缺陷,也就是說,現在有很多工具可以幫助人們進行深度偽造。

有幾家公司會為人們製作這些工具,並在雲端完成所有處理,甚至還有一款名為「Zao」的手機應用,算法在系統內對一系列電視和電影角色進行學習訓練,用戶可以自其中自行加入自己的臉部照片。
如何辨別深度偽造?
隨着技術進步,辨別難度越來越大。2018年,美國研究人員發現深度偽造視頻中的角色不會正常眨眼,這不足為奇:大多數圖像中,人眼都是睜着的,所以算法從未真正學習過眨眼。起初,這似乎是辨別深度偽造靈丹妙藥。但這項研究一經發表,深度偽造角色就學會了眨眼。這便是遊戲本質:弱點一旦暴露,就會被修復。

劣質的深度造假更加容易被發現。角色口型可能對不上,膚色可能不協調,或者換臉後面部邊緣可能會有閃爍,而像頭髮這類細節更是讓深度偽造者頭疼,難以將其渲染得當。渲染不好的珠寶和牙齒也可能暴露本質,奇怪的燈效也是禍源,比如照明情況不相一致、虹膜上的反射格格不入等。
政府、高校和科技公司都在資助檢測深度偽造的研究。2019年12月,由微軟、Facebook和亞馬遜贊助第一屆深度偽造檢測挑戰賽拉開帷幕。屆時全球各地的研究團隊都會參與大賽,爭霸深度偽造檢測遊戲。
在2020年美國大選的準備階段,Facebook禁止了深度偽造視頻,這些視頻可能會誤導觀眾,讓某些人遭受無妄之災。然而,該政策只禁止人工智能生成的虛假信息發布,這就意味着,該平台上仍存在「淺層偽造(shallowfake)」(見下文)。

深度偽造會造成嚴重破壞嗎?
我們可以預見,此後深度偽造作品更是會雨後春筍般湧現,造成騷擾、恐嚇、歧視、破壞,影響社會穩定,但深度偽造會引發重大國際事件嗎?我們不得而知。
世界領導人按下大紅色按鈕(發射核彈)的深度偽造並不會引發世界末日,深度偽造的軍隊在邊境集結的衛星圖像也不會造成多大麻煩:大多數國家都有自己靠得住的安全成像系統。

儘管如此,深度偽造視頻在製造麻煩這方面仍可以大施拳腳。2019年,埃隆·馬斯克(Elon Musk)直播抽大麻,導致特斯拉股價暴跌。同年12月,唐納德·川普在參加北約會議後提前飛回家,當時網上便流傳出了其他世界領導人刻意嘲笑他的畫面,以假亂真。
魚目混珠的深度偽造會影響股價、影響選民投票,並引發宗教緊張局勢嗎?這似乎是必然。
深度會破壞信任嗎?
實際上,深度偽造、其他合成媒體以及假新聞的影響遠不止於此,更令人生厭的是,這些因素會創造出一個零信任社會,人們無法或者不願再費心去分辨真假,明察是非。當信任的根基動搖時,人們更容易對具體事件提出質疑。
2018年,喀麥隆通信部長將一段視頻斥為假新聞,大赦國際(Amnesty International)卻對該視頻深信不疑,視頻中喀麥隆士兵正處決平民。
唐納德·川普承認在一段錄音對話中吹噓自己抓過女性下體,後來他表示,這段視頻是假的。安德魯王子接受英國廣播公司艾米麗·梅特利斯(Emily Maitlis)採訪時表示,對自己與弗吉尼亞·吉弗爾(Virginia Giuffre)合影的真實性表示懷疑,而弗吉尼亞的律師卻堅稱這張照片是絕對真實、未經篡改的。
紐卡斯爾大學(Newcastle University)網絡法律權威專家莉蓮·愛德華茲(Lilian Edwards)教授說:「問題可能不在於虛假的現實,而在於真實的現實似乎變得不置可否。」
2020年,韓國主播金珠河(Kim Joo-Ha)的新聞播報。實際上,這是深度偽造的金珠河,儘管播出前觀眾已被告知真相,但還是引起了公眾的不同反應。© youtube
隨着技術不斷深入,人們獲取技術更加方便 ,深度偽造可能會給法庭事務帶來麻煩,尤其是處理在兒童撫養權之爭和僱傭關係等問題上,偽造事件可能會因此成為證據。但深度偽造也會帶來個人安全風險:深度偽造可以模擬生物識別數據,並有可能欺騙依賴面部、聲音、靜脈或步態識別的系統,藉此矇混過關。
顯而易見的是,有人會利用這項技術進行詐騙。例如,某人突然接到電話要求他們打錢,他們不太可能會把錢轉到一個未知的銀行賬戶,但如果自己的「媽媽」或「姐姐」在WhatsApp上打了給你打了一通視頻通話,並同樣要求你轉錢,你又會怎麼做呢?
解決方案是什麼?
諷刺的是,AI可能就是答案。
人工智能已經可以幫助人們識別假視頻,但許多現有檢測系統都存在一個致命缺陷:這些系統更適用於檢測名人視頻,因為名人視頻在網上比比皆是,系統可以免費獲得,並進行數小時的訓練。科技公司現在正在研發檢測系統,目的是在「假貨」出現時便將其標記。

另一種策略是關注媒體來源,數字水印並非萬無一失,但區塊鏈在線分類賬系統可以保存視頻、圖片和音頻的防篡改記錄,因此這些多媒體的來源和任何篡改行為隨時都處在監測之下。
深度偽造都是意圖作惡嗎?
非也。許多深度偽造是帶有娛樂性質的,有些還尚有裨益。聲音克隆深度偽造技術可以在人們因病失聲時恢復其聲音。深度偽造視頻可以讓畫廊和博物館充滿活力。

在佛羅里達的達利博物館中有一段深度偽造視頻,視頻中一位超現實主義畫家介紹自己的藝術作品並與遊客進行自拍。對於娛樂圈來說,科技可以用來改進外語影片的配音,更有爭議的是,讓過世演員死而復生。比如,已故的詹姆斯·迪恩(James Dean)將主演越南戰爭電影《尋找傑克》。
那淺層偽造呢?
薩姆·格雷戈里(Sam Gregory)在人權組織「證人」(Witness)工作,「淺層偽造」一詞便是由他所創作,指的是視頻內容斷章取義或僅經簡單的編輯工具修改。這些視頻雖然質量低劣,但無疑具有影響力。一段淺層造假視頻在社交媒體上流傳,視頻故意放慢了南希·佩洛西(Nancy Pelosi)的演講速度,讓人感覺其冗長囉嗦,虛化了美國眾議院議長的聲音,讓其聽起來含糊不清。

在另一起事件中,CNN記者吉姆·阿科斯塔(Jim Acosta)與總統發生激烈爭執,被暫時禁止參加白宮新聞發布會。在隨後發布的一段淺層偽造視頻中,他與一名試圖拿掉他麥克風的實習生發生了肢體接觸。後來發現,該視頻在關鍵時刻進行了加速處理,使得他的舉動顯得咄咄逼人。後來,阿科斯塔重新拿回了自己的媒體通行證。
英國保守黨也使用了類似的淺層造假伎倆。在大選的準備階段,保守黨篡改了對工黨議員基爾·斯塔默(Keir Starmer)的一次電視採訪,讓他看起來愚笨,無法回答有關保守黨脫歐立場的問題。
深度偽造盛行的今天,這類惡作劇只會層出不窮。正如Deeptrace威脅情報(threat of intelligence)主管亨利·阿傑德(Henry Ajder)所言:「世界正愈發人工化,這項技術不會消失。」
文/Ian Sample
譯/ZhaoHang
校對/兔子的凌波微步
原文/www.theguardian.com/technology/2020/jan/13/what-are-deepfakes-and-how-can-you-spot-them
本文基於創作共享協議(BY-NC),由ZhaoHang在利維坦發布
文章僅為作者觀點,未必代表利維坦立場
往期文章:






西文學術書1元起拍,點擊閱讀原文入場
☟