|
AI換臉,曾經(jīng)只會困擾名人,如今卻會直接影響到我們普通人的財產(chǎn)安全。 偽造人臉盜號、轉(zhuǎn)賬的新聞不在少數(shù),今年8月,就有兩名犯罪嫌疑人因使用手機(jī)軟件制作人臉識別動態(tài)視頻,并“偽裝”登錄他人的網(wǎng)絡(luò)賬號盜取資金而被警方抓獲。 ![]() 另一則新聞提到,由于制作簡單,一個視頻價格僅為2至10元, “客戶”往往是成百上千購買,牟利空間巨大 根據(jù)新聞報道和法院裁定書,這類案件的非法獲利幾千至幾十萬元不等,全國各地都已經(jīng)發(fā)生了許多類似案件。甚至有不法分子利用銀行的人臉識別授權(quán)功能,再通過木馬病毒攔截短信驗(yàn)證碼盜取存款,涉案總金額超200萬元。 騙不過人,可以騙攝像頭?。?/div> AI換臉,術(shù)語是Deepfake(深度偽造),是把Deep learning(深度學(xué)習(xí))和Fake(偽造)組合在一起,用AI把一個人的人臉換到另一個人的照片/視頻當(dāng)中的技術(shù)。 圍繞AI換臉有著相當(dāng)多的“犯罪應(yīng)用”,包括且不限于: ·攻擊刷臉驗(yàn)證:直接從支付寶、微信錢包、甚至貸款軟件里,偽造他人信息套現(xiàn); · 制作虛假色情圖片/視頻:詐騙、敲詐勒索或損壞他人名譽(yù); · 實(shí)時換臉通話:盜號并詐騙號主親友; · 制造虛假信息:蒙騙政客、法官、投資者等; · 發(fā)布假新聞:煽動民眾、引起混亂恐慌、打擊商業(yè)對手、制造股市動蕩等。 在這當(dāng)中,刷臉驗(yàn)證與普通人關(guān)系最大,因?yàn)樗?yàn)證的是一個人的身份,一旦這個信息被突破,你的資產(chǎn)安全與信息安全都會受到威脅,很容易在網(wǎng)絡(luò)上“裸奔”。 除了Deepfake技術(shù),還有相當(dāng)多的方法可以干擾人臉識別認(rèn)證,比如造一個“騙AI眼鏡”: ![]() 不好意思放錯了,是這個: 圖源:Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition. 在一篇圖像識別領(lǐng)域的經(jīng)典文獻(xiàn)中,研究者通過數(shù)學(xué)運(yùn)算設(shè)計了一種特定的“眼鏡”(中圖),戴上就可以讓一個人(左圖)被AI人臉識別認(rèn)成另外一個人(右圖)。 另一種騙檢測設(shè)備的方式是3D面具,比如下面這些圖: ![]() ![]() 圖源:businessinsider & kneron 這是Kneron這家公司的產(chǎn)品,他們在2019年底聲明,對于微信、支付寶的刷臉支付和火車站的人臉識別閘機(jī),都可以戴著面具偽裝成別人通過。 AI換臉,特別在哪? 對普通人來說,上述技術(shù)還不必過于擔(dān)心,因?yàn)樗鼈冇兄?span>各種各樣的缺陷,比如“騙AI眼鏡”主要是針對靜態(tài)圖片識別,無法突破動態(tài)人臉識別,而“人臉面具”需要定制、價值不菲且制作工藝復(fù)雜,用在普通人身上性價比并不高。 但AI改變了一切,簡直把造假成本降到了“白菜價”。 視頻越短、像素越低、實(shí)時性要求(需要實(shí)時換臉還是可以制作完視頻再發(fā)出)越低、欺騙對象警惕性越低、可用素材(就是目標(biāo)人物的多角度照片、視頻)越多,造假成本就越低。 舉個例子,同樣是一個人說話,AI換成另一個人的臉,直接上手就能用的AI模型配合NVIDIA GTX1080 Ti可以做到這樣,動作還算流暢,但“塑膠感”嚴(yán)重,一眼就能看出不是真人的視頻。 ![]() 圖源:Youtube@Matthias Niessner 而經(jīng)過NVIDIA RTX 3090 Ti長時間(數(shù)小時甚至數(shù)天)訓(xùn)練的AI模型,可以做出相當(dāng)以假亂真的效果。可能只有在認(rèn)真反復(fù)的觀看下,才會發(fā)現(xiàn):誒?剛剛這個人額頭的皺紋是不是在閃? ![]() 圖源:Youtube@Druuzil Tech & Games 針對“人臉識別”,deepfake便宜很多;因?yàn)楣テ啤叭四樧R別”不需要最“精細(xì)”,最費(fèi)工夫的Deepfake技術(shù),只需要一個清晰度一般的幾秒鐘的視頻。 而提高成本后制作的更精細(xì)的視頻,則可以用于其他的詐騙用途。并且這種造假是一種“一本萬利”的買賣,在設(shè)備與算法齊全后,就可以根據(jù)不同的情境與需求,批量生產(chǎn)假視頻。 普通人能怎么辦 當(dāng)AI換臉進(jìn)入普通人的生活,我們能做些什么來應(yīng)對跟它相關(guān)的不法行為呢? “騙”機(jī)器的換臉咋辦? 針對刷臉驗(yàn)證身份這一類場景,偽造的視頻需要通過的是人臉識別系統(tǒng)的自動驗(yàn)證,或者說“騙過”機(jī)器。所需的視頻時間短(幾秒鐘以內(nèi))、動態(tài)簡單(只有少量固定動作、甚至有些系統(tǒng)僅僅識別圖片)、沒有實(shí)時要求,從技術(shù)上來講是相對簡單的,識別端也不在真人的掌控之中。 對于這類案件,普通人能做的就是平時守護(hù)好自己的個人信息(包括人臉信息),并且盡量采用多種方式結(jié)合的身份驗(yàn)證。 密碼、指紋、手機(jī)號,能選的驗(yàn)證方式都選上,雖然自己也會麻煩點(diǎn),但是相當(dāng)于多幾道保險,全部被同時攻破的可能性還是小很多的。 ![]() 如果不幸被盜刷,立刻報警,配合警察追蹤不法分子、追回違法所得,同時上報平臺,讓平臺獲取更多的信息來修補(bǔ)漏洞、升級系統(tǒng)。 “騙”真人的換臉,咋辦? 欺騙真人的AI換臉,比如面對個人的勒索、詐騙,還有面對大眾的虛假新聞,則顯得更加隱蔽和多樣化。 從根本上來說,有了AI換臉技術(shù)以后,普通人面對圖像信息都應(yīng)該多留個心眼,不能一味相信“眼見為實(shí)”。 如果被人用偽造的裸照、不雅視頻勒索,不要回應(yīng),直接報警。 這類犯罪的AI換臉目標(biāo)就是受害人,所以只要看到視頻的人知道自己沒有拍過此類照片、視頻,就可以判斷視頻是偽造的。最大的難點(diǎn)反而在于不要自亂陣腳、不要因?yàn)楹ε露虿环ǚ肿咏桓跺X財。 如果被人用偽造的視頻詐騙,比如騙子盜了你朋友的號,用AI換臉跟你實(shí)時通話借錢。這個時候,多渠道驗(yàn)證就很重要,各個社交平臺、郵箱、短信、電話,不要因?yàn)閷Ψ娇雌饋砗苤本拖攵疾幌氲卮蝈X。 在觀看網(wǎng)上的新聞、視頻時,多查查新聞來源是否可靠。尤其是什么拜登講話,馬斯克講話,這些名人們可用于機(jī)器學(xué)習(xí)的訓(xùn)練集太多了,仿造高精度視頻很容易。 ![]() 這張圖里的馬斯克是假的哈…… | 圖源:VR陀螺 識別Deepfake的億些小技巧 還有一些小訣竅,可以幫助你更好地判斷一個視頻是不是AI換臉偽造的(如果開了十級美顏,這些方法就不是很可靠了。畢竟,十級美顏也可以被看作一種AI換臉呢): 關(guān)注臉型 多看看臉的大小、形狀、下顎線位置,尤其是動起來的樣子,和本人是否一致。 關(guān)注皺紋 畢竟每個人的皮膚情況和皺紋走向都是不一樣的,AI模型僅憑一些照片(而且不一定是最近的照片),生成的皺紋很難跟本人一模一樣。 一個人皮膚過于光滑、皺紋過多、或者全臉皮膚狀況不一致(比如額頭很多皺紋、臉頰卻很光滑)、一段視頻中年齡感不一致(一會兒看著年輕一會兒看著年長),都可能是偽造視頻的特征。 關(guān)注背景 看看這個背景是不是這個人平時用的背景、背景和人的銜接是不是自然、背景本身有沒有變形等等。 AI換臉生成的視頻并不遵循現(xiàn)實(shí)世界的物理光影規(guī)則,因此面部的陰影、眼鏡的反光等等,都可能出賣偽造的視頻。 關(guān)注五官的位置和大小 AI偽造的視頻可能會出現(xiàn)五官忽大忽小、位置飄移的現(xiàn)象。 關(guān)注獨(dú)特的面部特征 如果這個人臉上有痣、文身、疤痕,它們看起來都在正確的位置嗎? 發(fā)量、發(fā)際線看起來真實(shí)嗎?頭發(fā)邊緣看起來自然嗎? ![]() 比如眨眼的頻率和方式是否正常、眉毛和嘴的運(yùn)動是否像這個人平時的樣子、轉(zhuǎn)頭(尤其是轉(zhuǎn)到90度的側(cè)面)的時候有無變形、臉部被遮擋的時候遮擋物是否清晰可見,都是一些辨別AI偽造視頻的要點(diǎn)。 ![]() ![]() 一些容易露餡的動作 | 圖源:metaphysic & VFXChris Ume 除了以上的理論知識,你還可以試著去這個網(wǎng)站( https://detectfakes.media./)實(shí)操做題,提升一下自己鑒別假視頻的能力,說不定還能幫科學(xué)家對抗使用AI換臉的不法行為。 ![]() 名人們有說過這些話嗎?| 圖源:MIT Media Lab 只要還有很高的潛在非法收益,不法分子就會不惜加大投入,制作更精美、更“真實(shí)”的虛假視頻,去欺騙普通人、大公司、大機(jī)構(gòu)乃至政府。 所以,除了個人能做到的事情外,其實(shí)也更應(yīng)該由政府、公司從政策法規(guī)和技術(shù)建設(shè)上不斷完善和加強(qiáng),讓技術(shù)的進(jìn)步真正造福于人類,而不是淪為傷害他人的犯罪工具。 參考資料 [1]http://epaper.ynet.com/html/2022-04/14/content_396257.htm?div=-1 驚堂木 | 眼見為實(shí)?“變臉”盜刷支付寶!已有人中招... (2022). Retrieved 25 October 2022, from https://mp.weixin.qq.com/s/qNEaUN-A_83OL53vHvbWww [2]https://www./2019/12/13/21020575/china-facial-recognition-terminals-fooled-3d-mask-kneron-research-fallibility [3]Kneron's Edge AI & Facial Recognition Survey Pushes Forward Industry | Kneron – Full Stack Edge AI. (2020). Retrieved 25 October 2022, from https://www./news/blog/85/ [4]All it takes to fool facial recognition at airports and border crossings is a printed mask, researchers found. (2022). Retrieved 25 October 2022, from https://www./facial-recognition-fooled-with-mask-kneron-tests-2019-12 [5]To Uncover a Deepfake Video Call, Ask the Caller to Turn Sideways - Metaphysic.ai. (2022). Retrieved 25 October 2022, from https:///to-uncover-a-deepfake-video-call-ask-the-caller-to-turn-sideways/ [6]Detecting deepfakes by looking closely reveals a way to protect against them. (2022). Retrieved 25 October 2022, from https:///news/2019-06-deepfakes-reveals.html [7]Europol report finds deepfake technology could become staple tool for organised crime | Europol. (2022). Retrieved 25 October 2022, from https://www.europol./media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime [8]Project Overview ? Detect DeepFakes: How to counteract misinformation created by AI – MIT Media Lab. (2022). Retrieved 25 October 2022, from https://www.media./projects/detect-fakes/overview/ [9]Sharif, M., Bhagavatula, S., Bauer, L., & Reiter, M. K. (2016, October). Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition. In Proceedings of the 2016 acm sigsac conference on computer and communications security (pp. 1528-1540). [10]Thies, J., Zollh?fer, M., Theobalt, C., Stamminger, M., & Nie?ner, M. (2018). Headon: Real-time reenactment of human portrait videos. ACM Transactions on Graphics (TOG), 37(4), 1-13. [11]Li, Y., Yang, X., Wu, B., & Lyu, S. (2019). Hiding faces in plain sight: Disrupting AI face synthesis with adversarial perturbations. arXiv preprint arXiv:1906.09288. [12]Westerlund, M. (2019). The emergence of deepfake technology: A review. Technology Innovation Management Review, 9(11). [13]Mirsky, Y., & Lee, W. (2021). The creation and detection of deepfakes: A survey. ACM Computing Surveys (CSUR), 54(1), 1-41. [14]Li, C., Wang, L., Ji, S., Zhang, X., Xi, Z., Guo, S., & Wang, T. (2022). Seeing is living? rethinking the security of facial liveness verification in the deepfake era. CoRR abs/2202.10673. [15]Nguyen, T. T., Nguyen, Q. V. H., Nguyen, D. T., Nguyen, D. T., Huynh-The, T., Nahavandi, S., ... & Nguyen, C. M. (2022). Deep learning for deepfakes creation and detection: A survey. Computer Vision and Image Understanding, 223, 103525. [16]警惕!偽造“人臉”盜取賬號,漳州兩男子被抓_騰訊新聞. (2022). Retrieved 25 October 2022, from https://new.qq.com/rain/a/20220830A068U500 作者:羅碗 編輯:Emeria、游識猷
|
|
|