近兩年來,人工智能自動生成內(nèi)容的水平顯著提高,深度偽造(Deepfake)技術(shù)即為一類典型技術(shù),用于模仿、偽造人類行為特征,生成圖片、視頻、音頻等。在娛樂應用以外,深度偽造技術(shù)所潛藏的風險不容小覷。 近兩年來,隨著以機器學習為代表的人工智能技術(shù)的發(fā)展,人工智能自動生成內(nèi)容的水平取得了顯著的提高,深度偽造(Deepfake)技術(shù)即為一類典型技術(shù),用于模仿、偽造人類行為特征,生成圖片、視頻、音頻等。其中,AI換臉為深度偽造技術(shù)的典型代表。 借助AI換臉技術(shù),可對照片和視頻中的人臉進行替換,而保持原有視頻中人物的動作、神態(tài)與表情。深度偽造技術(shù)的廣泛傳播,則得益于互聯(lián)網(wǎng)的便利。盡管視頻換臉技術(shù)早已為在影視制作中得以運用,但深度偽造技術(shù)概念的興起源于美國Reddit論壇中2017年出現(xiàn)的一個名為“deepfakes”的賬號。2019年,ZAO軟件風靡國內(nèi)社交媒體,用戶將個人照片錄入系統(tǒng)后,即可將自己的面部與影視劇中的明星替換,“出演”影視片段。開源換臉框架和軟件的廣泛傳播,使得深度偽造的運用門檻不斷降低,非專業(yè)用戶也可輕松憑借一張照片生成偽造視頻。在娛樂應用以外,深度偽造技術(shù)所潛藏的風險不容小覷。 一、深度偽造技術(shù)的原理 深度偽造技術(shù)的興起主要歸功于生成對抗網(wǎng)絡(GAN)的出現(xiàn)和發(fā)展。GAN 算法上同時搭載著兩個神經(jīng)網(wǎng)絡:生成器與識別器。生成器可基于一個數(shù)據(jù)庫自動生成模擬該數(shù)據(jù)庫中數(shù)據(jù)的樣本;而識別器則可評估生成器生成數(shù)據(jù)的真?zhèn)?。兩者在互相博弈學習中產(chǎn)生大規(guī)模和高精確度的輸出。研究人員使用大量人臉圖像訓練GAN網(wǎng)絡,使其掌握人臉圖像中眼睛、鼻子、嘴巴及表情等特征。在新輸入圖像與視頻后,GAN框架會對會對人臉特征進行捕獲,并完成面部圖像的替換與操縱。使用計算機對視頻中的多個單幀進行批量處理即可生成深度偽造視頻。 當前深度偽造技術(shù)的應用方式主要有四種類型:第一種是借助軟件更換面部,也是目前為止用得最多的,例如已被我國禁用的換臉軟件“ZAO”;第二種是操縱人臉動作,重塑表情、口型和速度,讓其發(fā)表非其真實意圖的言論,如美國網(wǎng)民就利用深度偽造技術(shù)制作Facebook公司CEO扎克伯格的視頻,已在網(wǎng)絡上廣泛傳播;第三種是借助深度學習技術(shù),創(chuàng)建在現(xiàn)實生活中并不存在的面部圖像,如在職場社交平臺領英(LinkedIn)中被稱為“數(shù)字間諜”的凱蒂·瓊斯(Katie Jones),就是使用人工智能技術(shù)合成的虛擬形象,被用于收集政府官員信息;第四種是將面部表情與聲音結(jié)合,借助深度學習,創(chuàng)建聲音模型,如2019年8月,犯罪分子創(chuàng)建德國某能源公司總裁的聲音模型,成功騙取該公司英國分部22萬歐元。 早期,計算機需要借助同一面孔的多張不同角度照片才能完成人臉的替換,且替換準確度有限、替換痕跡較為明顯。隨著技術(shù)的不斷進步,深度偽造技術(shù)僅憑一張面孔照片即可進行替換操作,并能自動調(diào)節(jié)換臉后的對比度、亮度、顏色和替換邊緣的差異,而不讓人眼輕松發(fā)現(xiàn)。至此,深度偽造檢測技術(shù)進入發(fā)展新階段。 二、深度偽造技術(shù)存在的風險 深度偽造技術(shù)一旦被濫用,其將對個人、社會和國家構(gòu)成極大風險。相關(guān)風險按層次梳理如下: 1.個體肖像權(quán)、名譽與隱私權(quán)損害 若有不法者利用深度偽造技術(shù)制作虛假色情視頻和虛假言論視頻,則有可能被用作誣陷、誹謗和“色情報復”的手段,將對個人肖像權(quán)、名譽權(quán)和隱私權(quán)造成嚴重危害。 2.企業(yè)信譽及經(jīng)濟的損失 深度偽造技術(shù)的不當利用,同樣會對企業(yè)的經(jīng)營活動造成不可估量的負面影響。若不法者利用深度偽造技術(shù)制作企業(yè)負責人的公開談話視頻,篡改表情及談話內(nèi)容,散播虛假信息,將使社會公眾發(fā)生錯誤認識,直接影響公司的信譽及經(jīng)濟利益。2019年6月,有網(wǎng)民使用深度偽造技術(shù)制作Facebook公司CEO扎克伯格發(fā)表演講的視頻。該視頻在網(wǎng)絡上廣泛傳播,即證明這種擔憂并非空穴來風。 3.新聞媒體行業(yè)的社會信任衰退 深度偽造技術(shù)同樣可能被用于篡改新聞報道中的圖像和視頻。若社會公眾對記者和媒體持有不盡信任的態(tài)度,偽造視頻更會加劇公眾的不信任。深度偽造技術(shù)的存在證明眼見耳聞并不可靠,很可能會對新聞媒體的公信力造成沖擊。 4.國家安全、公共安全受到威脅 不同于文字和圖片,深度偽造技術(shù)制作的視頻可以讓虛假的信息以“高度可信”的方式呈現(xiàn)給社會公眾,從而操縱觀眾的情緒反應,引發(fā)社會廣泛的不信任。因而該技術(shù)很可能被敵對勢力利用,作為詆毀國家機構(gòu)、煽動恐怖和暴力活動、挑撥國家內(nèi)部矛盾的工具。例如,美國政府官員就指出深度偽造技術(shù)對美國2020大選的潛在威脅——若放任偽造視頻擴散,則會對美國總統(tǒng)選舉產(chǎn)生不良影響,挫傷選民的積極性。 從短期看,深度偽造還可能會對公共安全產(chǎn)生一定影響。不法者可能利用虛假視頻煽動暴力沖突,造成惡性后果。此外,深度偽造技術(shù)還可能成為造謠者擺脫質(zhì)疑的工具。在深度偽造普遍運用的環(huán)境下,人們將不再輕易相信自己親眼所見,說謊者正好可以利用民眾的這一心理散布謠言。對于不利于自己的信息,盡管其沒有經(jīng)過任何加工,任何人都可以宣稱是偽造的,從而達到混淆公眾視聽的目的,為社會治安的治理增添難度。 三、深度偽造技術(shù)治理 面對深度偽造技術(shù)存在的風險,各國分別推出深度偽造檢測手段并出臺相關(guān)政策進行防范、核查和治理。 美國國防部高級研究計劃局于2018年8月設立“媒體鑒證”項目,以尋求深度偽造識別工具,并最終推出一款準確率高達99%的識別工具;2019年9月,為激發(fā)業(yè)界對于深度偽造檢測的創(chuàng)造,亞馬遜AWS云服務部門、Facebook、微軟、人工智能媒體誠信指導委員會聯(lián)合發(fā)起深度偽造識別挑戰(zhàn)賽,懸賞1000萬美元尋求最高效的深度偽造識別工具,以應對深度偽造視頻可能對2020年美國大選所造成的影響,英國牛津大學、美國麻省理工學院、加州大學伯克利分校等高校亦參與其中。 對于偽造圖像的檢測主要以邊緣檢測為主。計算機對圖像進行網(wǎng)格劃分與瑕疵識別后,可識別出不符合常規(guī)的邊緣特征,從而判斷出圖像是否經(jīng)過修改。 對偽造視頻的檢測方法可以分為兩類:一是基于幀間時間特性的方法(Temporal features across frames),利用視頻內(nèi)人眨眼頻率、嘴型等時間相關(guān)的特性進行判斷,通常使用遞歸分類方法;二是基于幀內(nèi)視覺效果的方法(Visual artifacts within frame),利用圖像邊緣的瑕疵以及五官位置、面部陰影等不自然的細節(jié)進行判斷,通常提取特定特征后用深層或淺層的分類器完成檢測。 此外,亦有研究人員提出使用可追溯、不可篡改的區(qū)塊鏈技術(shù)對深度偽造視頻進行追溯。2019年3月,阿拉伯聯(lián)合酋長國哈利法大學電氣與計算機工程系研究人員發(fā)表名為《使用區(qū)塊鏈和智能合約打擊深度偽造視頻》(Combating Deepfake Videos Using Blockchain and Smart Contracts)的論文,提出使用區(qū)塊鏈的解決方案和通用框架,以追蹤數(shù)字內(nèi)容的來源和歷史,即使數(shù)字內(nèi)容被多次復制也可對其進行溯源。該論文提供的解決方案框架具有普適性,亦可應用于任何其他形式的數(shù)字內(nèi)容。 具體成果方面:2017年8月,新加坡信息通信研究所網(wǎng)絡安全小組發(fā)表名為《自動人臉交換及其檢測》(Automated face swapping and its detection)的論文,第一次提出AI換臉檢測框架,檢測準確率達到92%。從此,業(yè)界對于人工智能換臉技術(shù)及檢測技術(shù)的研究進入白熱化階段,企業(yè)、高校及個人開發(fā)者紛紛投入對人工智能換臉檢測工具的開發(fā)。 2019年6月,美國加州大學伯克利分校和南加州大學研究人員通過已有的非偽造視頻,收集視頻中個人的特征,構(gòu)建高度個人化的“軟生物識別指標”體系。識別系統(tǒng)在掌握個人的微表情和行為習慣后,鑒偽準確率可達到95%。美國Adobe公司也于2019年6月推出反向PS(Photoshop,全球使用最廣泛的修圖軟件,此處意為“編輯圖片”)工具。依托于AI算法,該工具可自動識別出人像圖片中經(jīng)過圖像液化工具修改的部分,并將其還原成初始樣貌,準確率高達99%。 為幫助研究人員開發(fā)深度偽造自動檢測工具,谷歌公司于2019年9月公開發(fā)布深度偽造視頻識別數(shù)據(jù)集,其中包含3000多段視頻,由多位真人演員在28個不同場景下拍攝。全球研究人員都可使用該完全開源的數(shù)據(jù)集對深度偽造檢測工具進行訓練。 隨著越來越多的深度偽造檢測框架與訓練數(shù)據(jù)集在網(wǎng)絡上開源,國內(nèi)對于深度偽造視頻識別的研究成果也逐漸顯現(xiàn)。 清華大學人工智能研究院旗下初創(chuàng)企業(yè)RealAI于2019年12月發(fā)布深度偽造換臉檢測工具,可在1秒鐘時間內(nèi)對超過10人同框的圖像與視頻進行深度偽造識別,識別率可達到99%。2020年1月,北京大學與微軟亞洲研究院聯(lián)合推出深度偽造識別工具“Face X-Ray”,該工具不依賴于與特定圖像修改技術(shù)相關(guān)的深度偽造知識,并且其算法可以在不生成假圖像的情況下進行訓練。研究結(jié)果表明,F(xiàn)ace X-Ray能有效地識別出未被發(fā)現(xiàn)的假圖像,并能可靠地預測圖像混合區(qū)域。 (二)深度偽造相關(guān)法規(guī)政策與措施 各國已經(jīng)意識到深度偽造技術(shù)可能帶來的潛在風險,因此也開始在政策和立法層面進行積極應對。中國、美國、德國等國均出臺相關(guān)法律法規(guī),對深度偽造技術(shù)進行管控。相關(guān)的法律法規(guī)條款均對深度偽造內(nèi)容的性質(zhì)、責任主體、處罰標準等方面進行規(guī)范,意在對個人權(quán)利和國家安全的保護。其中,美國由于大選臨近,相關(guān)立法更多注重于對2020年總統(tǒng)大選的保護。(各國涉深度偽造的立法情況可參照《技經(jīng)觀察 | 各國涉Deepfake等人工智能造假技術(shù)立法概況》一文。) 為規(guī)避深度偽造視頻可能帶來的不良影響,社交媒體平臺也紛紛出臺管控措施。推特公司表示,將為所有深度偽造視頻貼上明顯的標簽,以提醒瀏覽者;Facebook公司則表示將在2020年美國大選前刪除模仿、諷刺內(nèi)容以外的深度偽造視頻,以限制錯誤信息的傳播。 四、總結(jié) 一方面,深度偽造技術(shù)為文化和娛樂創(chuàng)造了更多可能,該技術(shù)有望能讓歷史人物變得活靈活現(xiàn),也能幫助創(chuàng)造更好的視頻效果,使得演員的出演安排更加靈活,以上是深度偽造技術(shù)對于娛樂、教育等領域的有益影響。而另一方面,若深度偽造技術(shù)被不當利用,用于制作有害的虛假視頻,則會對國家政治安全造成嚴重影響、對個人和企業(yè)的合法權(quán)益形成威脅。 當下,深度偽造技術(shù)與檢測技術(shù)正處于復雜且不分伯仲的博弈中,“貓和老鼠”的斗爭仍將持續(xù)。視頻發(fā)布平臺可能存在的審核疏漏以及輿論的阻力會給深度偽造視頻的監(jiān)管帶來不利影響,且由于互聯(lián)網(wǎng)使用成本低、網(wǎng)絡作案具備一定的隱蔽性,深度偽造技術(shù)治理將會是一個長期的斗爭過程。如何規(guī)范深度偽造技術(shù)的使用,除了法律規(guī)范的嚴格限定,也需要科研人員持續(xù)開發(fā)“打假”工具,并結(jié)合有針對性的人工審查,形成完善可靠的治理體系。 作者丨唐乾琛 研究所簡介 國際技術(shù)經(jīng)濟研究所(IITE)成立于1985年11月,是隸屬于國務院發(fā)展研究中心的非營利性研究機構(gòu),主要職能是研究我國經(jīng)濟、科技社會發(fā)展中的重大政策性、戰(zhàn)略性、前瞻性問題,跟蹤和分析世界科技、經(jīng)濟發(fā)展態(tài)勢,為中央和有關(guān)部委提供決策咨詢服務?!叭蚣夹g(shù)地圖”為國際技術(shù)經(jīng)濟研究所官方微信賬號,致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng)新洞見。 地址:北京市海淀區(qū)小南莊20號樓A座 電話:010-82635522 微信:iite_er |
|
來自: 全球技術(shù)地圖 > 《待分類》