2017 年,國(guó)外著名成人網(wǎng)站Reddit上出現(xiàn)了一段《神奇女俠》主演蓋爾·加朵的小黃片,這個(gè)視頻利用深度偽造(Deepfake)合成,將蓋爾·加朵(右)的臉替換了色情女星的臉。 至那時(shí)起,深度偽造名人色情內(nèi)容一發(fā)不可收拾,斯嘉麗·約翰遜與艾瑪·沃特森等明星都曾慘遭毒手。 但如今,偽造色情逐漸盯上了普通人。只要你在網(wǎng)絡(luò)上發(fā)布過自拍,人工智能都有辦法幫你“一鍵脫衣”,規(guī)范AI色情內(nèi)容刻不容緩。 01 AI一鍵脫衣 上周五,當(dāng)考特尼(Courtney)醒來時(shí), 她的Instagram收到了一張她的裸照,還附有一個(gè)傻笑的表情。 這讓她感到無比震驚,作為一名有抱負(fù)的社會(huì)工作者,考特尼知道照片是假的。 對(duì)方截屏了她的一張自拍,將照片上傳到深度偽造(deepfake)裸體生成網(wǎng)站中,這些網(wǎng)站可以“一鍵脫掉”照片中任何人的衣服。 20多歲的考特尼感到驚恐萬分,她立即拉黑了對(duì)方,并且刪除了網(wǎng)上自己的所有照片,她害怕此事重演。 考特尼感到很焦慮,她擔(dān)心照片外泄,害怕粉絲、朋友甚至是家人看到。 2019年荷蘭人工智能公司Sensity的一項(xiàng)研究顯示,約96%的深度偽造視頻是未經(jīng)同意的色情內(nèi)容,其中大部分是女性。 “從前只存在于腦海的意淫,被AI技術(shù)和內(nèi)容創(chuàng)作者變?yōu)楝F(xiàn)實(shí)。”Blackbird.AI 情報(bào)總監(jiān)羅伯塔·達(dá)菲爾德告訴法新社。 “由于內(nèi)容極易獲取,監(jiān)管卻太難,AI色情技術(shù)突飛猛進(jìn),成為剝削和歧視婦女的新形式。 02 “媽媽,他們對(duì)我做了什么?” 2018 年以來,AI生成色情內(nèi)容的前10大網(wǎng)站中,假裸照內(nèi)容劇增了290%以上。 2023年9月17日,米里亞姆·阿迪布·門迪里(Miriam Al Adib Mendiri)結(jié)束旅行,回到西班牙南部的家中,她發(fā)現(xiàn)14歲女兒心神不寧,女兒給她看了自己的裸照。 阿迪卜還記得女兒的話:“媽媽,他們對(duì)我做了什么?” 女兒從沒有拍過裸照。警方稱,當(dāng)?shù)氐囊蝗耗泻⒃谏缃幻襟w上,截取了鎮(zhèn)上幾位女孩穿著衣服的照片,利用人工智能APP“nudifier”合成了裸照。 近幾個(gè)月來,AI裸體照片充斥網(wǎng)絡(luò)。Nudifier只是眾多利用真實(shí)圖像制作裸體照片的人工智能工具之一。伊利諾伊大學(xué)厄巴納-香檳分校(University of Illinois at Urbana-Champaign)的人工智能專家王剛(Gang Wang)說,通過分析數(shù)百萬張圖像,AI軟件可以更好地預(yù)測(cè)人體裸體的效果,輕而易舉地替換色情內(nèi)容的長(zhǎng)相。 盡管許多AI圖像生成器阻止用戶生成色情內(nèi)容,但開源軟件(如 Stable Diffusion)會(huì)公開其代碼,允許業(yè)余開發(fā)者進(jìn)行改動(dòng),這通常用于作惡。(Stable Diffusion 的制造商 Stability AI 沒有回復(fù)。) 行業(yè)分析師吳珍維(Genevieve Oh) 說,AI公司鼓勵(lì)用戶在社交媒體上分享AI生成照片,只要代碼公開,利用推薦計(jì)劃他們就能賺錢。 排名前10位的AI色情圖片網(wǎng)站中,2023年就已有超過415000張圖片上傳,累計(jì)9000萬次瀏覽。 除此之外,AI生成的色情視頻也在井噴式增長(zhǎng)。在搜索了40個(gè)熱門網(wǎng)站的偽造視頻后,吳珍維發(fā)現(xiàn)2023年新增了超過14.3萬個(gè)色情視頻,超過了2016年至2022年的視頻總數(shù)。這些虛擬色情視頻已有超42億的瀏覽量。 03 “它將永遠(yuǎn)成為你的污點(diǎn)” 澳大利亞珀斯的諾埃爾·馬丁(Noelle Martin)也是偽造色情內(nèi)容的受害者。10年前,28歲的她出于好奇搜索自己的照片,結(jié)果發(fā)現(xiàn)了自己的偽造色情照片。直到今天,馬丁也不知道是誰偽造的。后來,馬丁又發(fā)現(xiàn)了自己的偽造性視頻。她懷疑有人截取了她的照片,將其篡改為色圖。 馬丁被嚇壞了,多年來,馬丁聯(lián)系了許多網(wǎng)站,想要?jiǎng)h除這些圖片。有些網(wǎng)站沒有回應(yīng),有些網(wǎng)站刪除了,但很快又出現(xiàn)。 馬丁說:“這一切都是徒勞,它們將永遠(yuǎn)存在,將永遠(yuǎn)成為你的污點(diǎn)?!?/strong> 她說,她越舉報(bào),事情反而變得更糟。有些人甚至說,是她的穿著打扮和自拍,讓對(duì)方騷擾了她。這實(shí)質(zhì)上把責(zé)任歸咎于她,而非偽造者。 最終,馬丁轉(zhuǎn)向立法部門。她主張?jiān)诎拇罄麃喼贫ㄒ粭l法律,規(guī)定如果公司不遵守網(wǎng)絡(luò)安全監(jiān)管機(jī)構(gòu)發(fā)出的刪除此類內(nèi)容的通知,將被處以55.5萬澳元(約合人民幣259萬元)的罰款。 但是,各國(guó)都有自己的網(wǎng)絡(luò)法規(guī),清理全部互聯(lián)網(wǎng)幾乎不可能。馬丁目前是西澳大利亞大學(xué)的律師和法律研究員,她認(rèn)為這個(gè)問題必須通過某種全球性的方案來解決。 04 AI內(nèi)容監(jiān)管的嘗試 2023年6月,美國(guó)聯(lián)邦調(diào)查局(Federal Bureau of Investigation)警告,最近的裸照勒索數(shù)量有所增加。雖然尚不清楚其中有多少是AI生成的裸照,但這一趨勢(shì)正在擴(kuò)散。聯(lián)邦調(diào)查局表示,截至 9 月,已有超26800人成為“性勒索”的受害者,比 2019 年增加了 149%。 聯(lián)邦調(diào)查局補(bǔ)充說,受害者包括未成年兒童和成年人。 AI工具的擴(kuò)散已經(jīng)超出了監(jiān)管范圍。 AI品牌保護(hù)公司Ceartas的首席執(zhí)行官和創(chuàng)始人丹·珀塞爾(Dan Purcell)告訴法新社說:“它不是在我們看不到的地方,創(chuàng)造和分享色情圖像?!?/span> “它就在我們眼皮底下,法律需要立即跟進(jìn)。” 在英國(guó),政府提出了一項(xiàng)新的《網(wǎng)絡(luò)安全法案》,提出分享深度偽造色情內(nèi)容為刑事犯罪。 包括加州和弗吉尼亞州在內(nèi)的美國(guó)4個(gè)州,已經(jīng)禁止分享深度偽造色情內(nèi)容。但如果對(duì)方并不在轄區(qū)內(nèi),法律很難保護(hù)受害者。 2023年5月,一位美國(guó)議員提出了《防止深度偽造親密圖像法案》,該法案將把分享未經(jīng)同意的深度偽造色情制品定為違法行為。 Reddit等熱門網(wǎng)絡(luò)社區(qū)也在努力規(guī)范蓬勃發(fā)展的AI色情小組。 珀塞爾說:“互聯(lián)網(wǎng)是一個(gè)沒有國(guó)界的司法管轄區(qū),需要統(tǒng)一的國(guó)際法來保護(hù)人們免受剝削?!?/strong> 編譯:阿海 版權(quán)說明 本譯文僅用于學(xué)習(xí)和交流目的。非商業(yè)轉(zhuǎn)載請(qǐng)注明譯者、出處,并保留文章在譯言的完整鏈接。商業(yè)合作請(qǐng)聯(lián)系 editor@yeeyan.com 參考: https://www./news/article-12698255/EXCLUSIVE-Womans-horror-stranger-turned-mirror-selfie-sick-AI-generated-deepfake-nude-taunted-it.html https://www./2023/11/05/nation/ai-fake-nudes-are-booming-its-ruining-real-teens-lives/ https://www./news/deepfake-porn-ai-technology/ https://www./world-news/women-combat-deepfake-porn-amidst-the-rise-of-ai-4235611 |
|