網(wǎng)絡(luò)上“AI名人”泛濫 深度偽造之惡何解?

分享到:
分享到:

網(wǎng)絡(luò)上“AI名人”泛濫 深度偽造之惡何解?

2024年12月16日 07:45 來源:錢江晚報
大字體
小字體
分享到:

  “張文宏”深夜帶貨,女孩照片被熟人“換臉”

  本報記者 朱高祥

  張文宏開始直播帶貨了?

  近日,不少網(wǎng)友發(fā)文稱,短視頻平臺上,疑似知名醫(yī)生張文宏正在售賣一種蛋白棒,家中老人信以為真而大量下單。但仔細(xì)辨認(rèn)可以發(fā)現(xiàn),帶貨視頻為AI合成。張文宏本人回應(yīng)稱,這些假的AI合成信息就像蝗災(zāi)一樣,一次又一次發(fā)生,像漫天飛過來的蝗蟲一樣害人。

  不僅是張文宏,網(wǎng)絡(luò)上的“AI名人”已成泛濫趨勢:“假靳東”迷倒一眾大媽、“假雷軍”辣評世間百態(tài)、“假拜登”宣布第三次世界大戰(zhàn)開始、“假馬克龍”直播回答“政府聘用滅霸”……

  而更早之前的韓國Deepfake(深度偽造)性犯罪事件,不僅讓韓國全體女性陷入“換臉恐慌”,更是引發(fā)全球關(guān)注,大眾擔(dān)心一種更廣泛的、充滿敵意的網(wǎng)絡(luò)環(huán)境開始滲入真實(shí)世界。

  人工智能方興未艾,公眾該如何面對新一代的“施虐者”?

  女孩照片被盜成色情視頻

  群組內(nèi)容不堪入目

  河北保定女孩欣欣(化名)從未想過Deepfake會發(fā)生在自己身上。

  今年7月9日,正在刷抖音的欣欣突然收到了一條私信,被網(wǎng)友告知有自稱其男友的人在外網(wǎng)盜用她的照片后進(jìn)行AI換臉并傳播。

  “我聽到這個消息之后有些震驚且不敢相信,但真的看到這些照片后,我感到無比憤怒?!毙佬栏嬖V記者,對方不僅制作大量AI換臉的不良照片與視頻,還隨意泄露了自己的個人信息,包括網(wǎng)名、真名、年紀(jì)、學(xué)校、專業(yè)等等。

  欣欣隨后通過多個途徑進(jìn)行了查證,這些照片和視頻均是對方從自己的小紅書搬運(yùn),經(jīng)加工處理,制作出不堪入目的色情影像。欣欣第一時間選擇報警并咨詢律師,開始固定更多證據(jù)。

  “當(dāng)天晚上8點(diǎn)多,我報警備案,當(dāng)時我沒有排除熟人或者陌生人的各種可能性。后續(xù)我經(jīng)過各種賬號套話,得知對方了解我的家屬關(guān)系等更隱私的信息,我就逐步縮小了嫌疑人范圍,心中也有了懷疑的對象。”欣欣隨后發(fā)布了一條僅對方可見的朋友圈,且把內(nèi)容做了特殊標(biāo)記,很快這條內(nèi)容出現(xiàn)在外網(wǎng)。

  欣欣把這條直接證據(jù)交給了警方,不久后警方給出處理結(jié)果:對方因傳播淫穢物品,被處以行政拘留十日。

  “沒想到Deepfake離自己如此之近,更沒想到施害者就是身邊的熟人?!毙佬勒f,在處理這件事情的過程中,她了解到身邊有很多女孩子在遭受類似的事件,甚至更嚴(yán)重。她們被泄露個人隱私、被造謠、被AI換臉、被性騷擾等等。

  欣欣告訴記者,因?yàn)檫@段經(jīng)歷,短暫接觸過幾個軟件,上面有成百上千的群組,群組里多的有上萬人,里面內(nèi)容不堪入目,充斥著各種女生的AI換臉照片與視頻,以及污蔑、詆毀、造謠的話,惡心程度超出想象。

  “由于造謠成本低,他們甚至不需要完整圖片,只需要一張臉部圖片就能完成所有,而且很難被抓到,這使得他們更加肆意妄為?!毙佬勒f。

  普通人難識別深度偽造內(nèi)容

  專家:請勇敢舉報

  正如欣欣所言,發(fā)生在身邊的Deepfake犯罪事件并非個案。

  由英文“deep machine learning”(深度機(jī)器學(xué)習(xí))和“fake photo”(假照片)組合而成的Deepfake(深度偽造),能基于人類行為特征如面部、聲音等合成圖像、視頻、音頻。當(dāng)前這一技術(shù),正被濫用成為針對婦女暴力、詐騙犯罪的新前沿。

  據(jù)新華社報道,韓國教育部9月9日說,韓國今年已發(fā)生400多起涉及中小學(xué)生的相關(guān)案件,受害者累計(jì)超過600人。

  與此同時,韓國用戶使用的社交媒體Telegram上,被發(fā)現(xiàn)存在多個傳播和分享該類型色情內(nèi)容的群聊,其中已知最大的一個聊天室成員超過22萬人。這類性犯罪事件的受害者人數(shù)尚難以統(tǒng)計(jì)。已知的被波及群體,包括女學(xué)生、女教師等,其中包含大量未成年人。

  近段時間,在一些國內(nèi)的短視頻平臺上,除了“AI名人”,“AI接吻視頻”也十分流行。有博主宣稱只需要下載一個軟件,花費(fèi)9.9元就可以完成??粗鴥蓚€毫無關(guān)系的照片人物“活生生”親吻擁抱在一起,不少網(wǎng)友直呼可怕。

  融力天聞律師事務(wù)所高級合伙人劉赤軍律師告訴記者,Deepfake之于視頻,就像Photoshop之于圖片,兩者都直觀沖擊了真實(shí)和虛擬之間的界限。但Deepfake能夠?qū)崿F(xiàn)以極低的成本,制作出完全虛構(gòu)又極其逼真的視頻。

  奇安信行業(yè)安全研究中心主任裴智勇表示,深度偽造,一般是指利用人工智能技術(shù),生成高度逼真的視頻、音頻、圖片、文案等內(nèi)容。這些內(nèi)容多被用于網(wǎng)絡(luò)欺詐、制造謠言、擾亂公共秩序和生成各類色情內(nèi)容。這些偽造內(nèi)容大多使用了人工智能技術(shù)中的深度計(jì)算技術(shù),識別難度很大。

  “讓普通人用肉眼或耳朵來識別深度偽造的視頻、音頻內(nèi)容是不現(xiàn)實(shí)的,因?yàn)樯疃葌卧毂旧砭鸵馕吨y以識別,沒有經(jīng)過專業(yè)訓(xùn)練的普通人很難從技術(shù)角度識破深度偽造內(nèi)容?!迸嶂怯抡f。

  在他看來,雖然想要阻止人們使用AI生成偽造視頻或圖片不現(xiàn)實(shí),但這并不意味著對惡意造假者無計(jì)可施:“國內(nèi)對于網(wǎng)絡(luò)色情視頻和圖片都有非常成熟的治理方法,即便不能用技術(shù)鑒別真?zhèn)?,也可以從平臺一側(cè)阻止色情內(nèi)容的傳播,定位色情內(nèi)容的傳播源頭并實(shí)施打擊。”

  裴智勇提醒,在自拍、短視頻盛行的時代,當(dāng)公眾遇到有人使用偽造視頻、音頻等內(nèi)容對財產(chǎn)侵害、名譽(yù)損害時,最好的辦法還是及時報警或向平臺進(jìn)行舉報,減少深度偽造內(nèi)容帶來的影響。

【編輯:于曉】
發(fā)表評論 文明上網(wǎng)理性發(fā)言,請遵守新聞評論服務(wù)協(xié)議
本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點(diǎn)。 刊用本網(wǎng)站稿件,務(wù)經(jīng)書面授權(quán)。
未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制及建立鏡像,違者將依法追究法律責(zé)任。
Copyright ©1999-2024 chinanews.com. All Rights Reserved

評論

頂部