电竞比分网-中国电竞赛事及体育赛事平台

分享

陳根:深度合成,為什么變成深度偽造?

 陳根談科技 2021-01-27
/陳根
技術盛行的時代里,人工智能讓社會生活的一切都顯得表觀和直接,卻讓偽造走向深度和長遠。
作為一種基于人工智能的人體圖像合成技術,深度偽造起初只是程序員用于自制搞笑的換頭視頻的簡單想法。但是,兩個深度學習的算法相互疊加,最終創(chuàng)造了一個復雜的系統(tǒng)。
人工智能的進步令這個復雜的系統(tǒng)用途得以擴充從特定用戶實時匹配面部表情,并無縫切換生成換臉視頻到其可以模仿的對象不再被限制。不論是明星政客,還是任何普通人,都可以在深度偽造技術下達到“以假亂真”的程度。
在這些應用帶來發(fā)展機遇的同時,其背后的安全隱患也開始被放大。隨著深度偽造技術發(fā)展的愈發(fā)復雜,其制作卻越來越簡單??梢哉f,深度造假正帶來一系列具有挑戰(zhàn)性的政策、技術和法律問題。
人工智能重塑人的認知,而人作為人工智能的開發(fā)者將固有的偏見傳遞給了技術。更重要的是,人們對這一切似乎并無察覺。在“娛樂”的外衣下,即便察覺,也無計可施。

  

從深度合成到深度偽造
一開始,“深度偽造”并不叫“深度偽造”,而是作為一種人工智能合成內(nèi)容技術而存在。深度合成技術是人工智能發(fā)展到一定階段的產(chǎn)物,源于人工智能系統(tǒng)生成對抗網(wǎng)絡(GAN)的進步。
GAN由生成器和識別器兩個相互競爭的系統(tǒng)組成。建立GAN的第一步是識別所需的輸出,并為生成器創(chuàng)建一個培訓數(shù)據(jù)集。一旦生成器開始創(chuàng)建可接受的輸出內(nèi)容,就可以將視頻剪輯提供給識別器進行鑒別。如果鑒別出視頻是假的,就會告訴生成器在創(chuàng)建下一個視頻時需要修正的地方。
根據(jù)每次的對抗結果,生成器會調整其制作時使用到的參數(shù),直到鑒別器無法辨別生成作品和真跡,以此將現(xiàn)有圖像和視頻組合并疊加到源圖像上,終于生成合成視頻。
典型的深度合成”主要包括人臉替換、人臉再現(xiàn)、人臉合成以及語音合成四種形式。
人臉替換也被稱為換臉,是指將某一個人的臉部圖像(源人物)縫合到另外一個人的臉上(目標人物),從而覆蓋目標人物的面部。
人臉再現(xiàn)利用深度合成技術改變?nèi)说拿娌刻卣鳎繕藢ο蟮淖觳?、眉毛、眼睛和頭部的傾斜,從而操縱目標對象的臉部表情。人臉再現(xiàn)不同于人臉替換,前者側重于改變某個人的臉部表情,從而讓其看起來在說他們從未說過的話。
人臉合成可以創(chuàng)建全新的人臉圖像,而這些隨機生成的人臉圖像很多都可以媲美真實的人臉圖像,甚至代替一些真實肖像的使用,比如廣告宣傳、用戶頭像等。
語音合成涉及創(chuàng)建特定的聲音模型,不僅可以將文字轉化成聲音,而且可以轉化為接近真人語調和節(jié)奏的聲音。加拿大的語音合成系統(tǒng) RealTalk與以往基于語音輸入學習人聲的系統(tǒng)不同,它可以僅基于文本輸入生成完美逼近真人的聲音。
深度合成技術的走紅,卻是一場意外2017年,美國新聞網(wǎng)站 Reddit的一個名為“deepfakes”的用戶上傳了經(jīng)過數(shù)字化篡改的色情視頻,即這些視頻中的成人演員的臉被替換成了電影明星的臉。此后,Reddit網(wǎng)站成為了分享虛假色情視頻的一個陣地。
盡管后來 Reddit網(wǎng)站上的 deepfake 論壇因為充斥著大量合成的色情視頻而被關閉,但 deepfake背后的人工智能技術卻引起了技術社區(qū)的廣泛興趣,開源方法和工具性的應用不斷涌現(xiàn),比如,Faceswap、FakeAPP、face2face等。
而從那時起,新聞媒體就開始使用deepfake”一詞來描述這種基于人工智能技術的合成視頻內(nèi)容。于是,基于deepfake”技術的內(nèi)容和“deepfake”的語境,深度偽造由此而生。

  


真實的消解,信任的崩壞
人工智能重塑人類的認知,而人類作為人工智能的開發(fā)者將固有的偏見傳遞給了技術。技術并非中立,它復刻且放大了人類的偏好,反映并強化了潛藏社會風險。潘多拉的魔盒一旦打開,將會帶來意想不到的傷害和威力。
深度偽造出現(xiàn)前,視頻換臉技術最早應用于電影領域,需要相對較高的技術和資金。2017年以來,該技術在GitHub的開源軟件涌現(xiàn)。其開發(fā)技術獲取成本大大降低并且被不具備專業(yè)知識的普通人利用并輕易制作。
制造視頻并不需要很高的技巧,機器學習算法與面部映射軟件相結合,偽造內(nèi)容來劫持一個人的聲音、面孔和身體等身份信息變得廉價而容易,普通大眾一鍵便可制造想要的視頻。
偽造視頻等的泛濫,帶來的第一個嚴重后果,就是對于信息的真實性形成嚴峻挑戰(zhàn)。自從攝影術、視頻、射線掃描技術出現(xiàn)以來,視覺文本的客觀性就在法律、新聞以及其他社會領域被慢慢建立起來,成為真相存在,或者說,建構真相的最有力證據(jù)。眼見為實成為這一認識論權威的最通俗表達。在這個意義上,視覺客觀性產(chǎn)自一種特定的專業(yè)權威體制。
然而,深度造假的技術優(yōu)勢和游獵特征,使得這一專業(yè)權威體制遭遇前所未有的挑戰(zhàn)。借助這一體制生產(chǎn)的視覺文本,深度造假者替換了不同乃至相反的文本內(nèi)容和意涵,造成了文本的自我顛覆,也就從根本上顛覆了這一客觀性或者真相的生產(chǎn)體制。
PS 發(fā)明后,有圖不再有真相。深度偽造技術的出現(xiàn),則讓視頻也開始變得鏡花水月了起來人們普遍認為視頻可以擔當實錘,而現(xiàn)在這把實錘竟可憑空制造,對于本來就假消息滿天飛的互聯(lián)網(wǎng)來說,這無疑會造成進一步的信任崩壞。
深度偽造技術被運用在政治領域,破壞政府和政治進程的穩(wěn)定帶來的傷害尤為長久和深刻。 可以說,深度造假不僅是一種技術迷思和技術景觀,而且是一個充滿變動的權力場域。事實上,深度造假之所以被政治和社會領域所關注,恰恰是由于精確換臉對這些領域中真相的認識論的進一步瓦解,以及造成的有關傳播失序的道德恐慌。
惡意的行為者偽造證據(jù),助長了虛假指控和虛假敘述。比如,通過對候選人發(fā)表的原有言語進行微妙改變,使其品格、健康狀況和心理健康受到質疑,而大多數(shù)觀眾卻完全不知道其中的門道。
“深度偽造”技術還可用于創(chuàng)建全新的虛擬內(nèi)容,包括有爭議的發(fā)言或仇恨言論,目的是操縱政治分歧議題,甚至是煽動暴力。
此外,深度偽造的泛濫進一步增加侵犯肖像權和隱私權的可能,沒人愿意自己的臉龐出現(xiàn)在莫名其妙的視頻當中。深度偽造技術最初就是被應用于色情行業(yè)如今,這一應用對肖像權和隱私的侵害隨著深度偽造向著廉價造假轉化仍然在放大。
于是,借助一些低價乃至免費的軟件,消費者無需專業(yè)知識和技術能力,即可通過終端實現(xiàn)調整速度、攝像頭效果、更換背景、實現(xiàn)換臉等操作。這在一定程度上成為了色情視頻濫觴的源頭。
比如,2019年出現(xiàn)的一鍵生成裸照軟件DeepNude,只要輸入一張完整的女性圖片就可自動生成相應的裸照。受害者通常沒有追索權,并且,照片上傳之后難再刪除。這種輕易生成的色情視頻將很大程度上損害女性的工作前途、人際關系、名譽和心理健康,造成污名化女性、色情報復的惡果,使女性暴露在某種集體監(jiān)視之中。
深度偽造軟件收集的用戶照片,以及眨眼、搖頭等動態(tài)行為信息,都是用戶不可更改的敏感信息,一旦被非法使用,后果不堪設想。2019 年 月份,《華爾街日報》報道,有犯罪分子使用深度偽造技術成功模仿了英國某能源公司在德國母公司 CEO 的聲音,詐騙了220 000 歐元(約1 730 806人民幣),其破壞性可見一斑。

  

關于真實的博弈
我們并不否認深度偽造技術為社會帶來的更多可能性。
短期內(nèi),深度偽造技術已經(jīng)作用于影視、娛樂和社交等諸多領域,它們或是被用于升級傳統(tǒng)的音視頻處理或后期技術,帶來更好的影音體驗,或是被用來進一步打破語言障礙,優(yōu)化社交體驗。
中長期來看,深度偽造技術既可以基于其深度仿真的特征,超越時空限制,加深人們與虛擬世界的交互,也可以基于其合成性,創(chuàng)造一些超越真實世界的“素材”,比如合成數(shù)據(jù)。
但在深度偽造帶來的危機逼近的當前,回應深度偽造對社會真相的消解,彌補信任的崩壞,并對這項技術進行治理已經(jīng)不可忽視。遺憾的是,迄今為止,人們在應對深度偽造技術方面的表現(xiàn)并不理想。
事實上,人們并非沒有試圖通過技術手段遏制深度造假的泛濫。2019年,斯坦福大學研究員Tom Van de Weghe聯(lián)合計算機、新聞等行業(yè)的專家,成立了深度造假研究小組,以提升公眾對這一現(xiàn)象的認知度,設計深度造假的識別應對方案。然而,技術發(fā)展速度往往高于破解速度。隨著鑒別器在識別假視頻方面做得越來越好,生成器在創(chuàng)建假視頻方面也做得越來越好。
理論上,只要給GAN當前掌握的所有鑒證技術,它就能通過學習進行自我進化,規(guī)避鑒證監(jiān)測。攻擊會被防御反擊,反過來又被更復雜的攻擊所抵消。可以預見,未來,深度偽造與鑒別深度偽造將會在這種“道高一尺魔高一丈”的反復中博弈下去。
此外,迄今為止,立法都滯后于深度偽造技術的發(fā)展,并存在一定的灰色地帶。深度偽造基于公開照片生成,這令其很難真正被發(fā)現(xiàn)。由于所有的照片都是由人工智能系統(tǒng)從零開始創(chuàng)建,任何的照片都可以不受限地用于任何目的,而不用擔心版權、分發(fā)權、侵權賠償和版稅的問題。因此,這也帶來了深度偽造照片或視頻的版權歸屬問題。
一旦被發(fā)現(xiàn),有權利刪除數(shù)據(jù)?違法者或侵權者的數(shù)據(jù)是否擁有同樣的權利?此外,當平臺發(fā)現(xiàn)疑似深度偽造視頻時,它是否能簡單刪除以規(guī)避責任,這種行為又是否會阻礙傳播自由?
注意力經(jīng)濟興起,高度分裂的社會背景下,與深度偽造的博弈是一個有關真實的游戲。進入人工智能為技術基礎的深度后真相時代,深度偽造進一步用超越人類識別力的技術,模糊了真與假的界限,并將真相開放為可加工的內(nèi)容,供所有參與者使用。
在這個意義上,深度造假開啟的是普通人參與視覺表達的新階段。然而,這種表達方式還會結構性地受到平臺權力的影響,也給社會帶來了更大的挑戰(zhàn)。因此,察覺風險,審慎回應,是我們做出努力的第一步。

    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多