世界短訊!專家預(yù)警:到2026年,9成在線內(nèi)容可能是合成生成

2022-09-24 20:57:20

文|田瑞穎

當(dāng)你沉浸于“換聲”“換臉”的游戲時,卻不知,自己或?qū)⒊蔀檫@項技術(shù)的“受害者”。

據(jù)歐洲刑警組織近期發(fā)布的一份觀察報告預(yù)測,到2026年,高達(dá)90%的在線內(nèi)容可能是合成生成的。這意味著虛假信息的增加,包括深度偽造(deepfake)。


(資料圖)

更令人擔(dān)憂的是,犯罪分子在未來幾年將增加對深度偽造的使用,而絕大多數(shù)人似乎還對其一無所知。

“當(dāng)今社會面臨的最大威脅之一”

照片和視頻是警方工作的重要情報,也是法庭上的證據(jù)。如果這些內(nèi)容可以被人為合成,改編成從未發(fā)生過的事,并歪曲事件和真相,該怎么辦?

專家估計,到2026年,高達(dá)90%的在線內(nèi)容可能是合成生成的。

合成媒體,是指使用人工智能生成或操縱的媒體。在大多數(shù)情況下,合成媒體的目的是游戲、改善服務(wù)或提高生活質(zhì)量。但它的發(fā)展也帶來了虛假信息的可能性,包括深度偽造。

歐洲刑警創(chuàng)新實驗室開展的戰(zhàn)略預(yù)測表明,最令人擔(dān)憂的技術(shù)趨勢之一就是深度偽造的演變和檢測,以及需要更普遍地解決虛假信息問題。

在英國倫敦大學(xué)學(xué)院(UCL)最近發(fā)表的一份報告中,深度偽造技術(shù)也被列為當(dāng)今社會面臨的最大威脅之一。

深度偽造技術(shù),是利用深度學(xué)習(xí)技術(shù)來制作音頻和視聽內(nèi)容,呈現(xiàn)人們從未說過和做過的事情,或者創(chuàng)造出從未存在過的人。

觀察報告認(rèn)為,深度偽造技術(shù)會給各種犯罪活動提供便利,包括散布虛假信息、非雙方自愿的色情內(nèi)容、為刑事司法調(diào)查偽造或操縱電子證據(jù)、實施勒索和欺詐、在線兒童性剝削、煽動社會動蕩和政治兩級分化等。

其中,虛假信息除了可能偽造緊急警報外,還可能利用政治人物的虛假音頻,擾亂選舉和政治等。BBC就曾為2019年英國大選制作了一段視頻,在視頻中,本來針鋒相對的兩位候選人鮑里斯•約翰遜和杰里米•科爾賓卻相互支持。如果足夠多的民眾上當(dāng),就可能對選舉結(jié)果產(chǎn)生嚴(yán)重影響。

企業(yè)也可能成為虛假信息的目標(biāo)。例如,通過創(chuàng)建一個深度偽造,使公司高管看起來從事了一項有爭議或違法的行為。如果公眾相信這些虛假信息,并開始拋售股票或抵制公司,就可能對公司價值和股市造成影響。

據(jù)《福布斯》2021年獲得的一份法庭文件披露的信息,一個欺詐團(tuán)伙正是利用音頻深度偽造技術(shù),克隆了一家企業(yè)董事的聲音,并成功詐騙了3500萬美元。

色情視頻深度偽造背后也有強(qiáng)大的利益驅(qū)動。2020年12月的一項研究顯示,阿姆斯特丹一家檢測和跟蹤在線深度偽造的公司Sensity,就在熱門流行網(wǎng)站上發(fā)現(xiàn)了85047個深度偽造視頻??膳碌氖?,這個數(shù)字每6個月就翻一番。而在2019年9月的一項研究中,Sensity就發(fā)現(xiàn),96%的假視頻都涉及非雙方自愿的色情內(nèi)容。

很多情況下,這些色情偽造視頻的受害者都是名人,他們的臉會被換到色情演員的身體上,看起來像正在參與這種行為。顯然,這些視頻很受歡迎,瀏覽量竟高達(dá)1.34億次。不僅如此,還有幾個色情網(wǎng)站專門制作名人的色情偽造視頻。

在一些專門的市場,用戶或買家甚至可以發(fā)布對深度偽造視頻的請求(例如色情偽造視頻),這也催生了幾家提供深度偽造服務(wù)的公司。Recorded Future報告稱,有人甚至愿意為這種服務(wù)支付1.6萬美元。

“近72%的人不知道深度偽造及其影響”

雖然有些虛假信息非常危險,但更危險的是,人們對此似乎一無所知。

2019年的一項研究顯示,在英國的一項調(diào)查中,近72%的人不知道深度偽造及其影響,盡管深度偽造在當(dāng)時已經(jīng)越來越普遍。這意味著人們可能無法識別由深度偽造生成的照片和音視頻,同時,這也為政府部門的執(zhí)法帶來了挑戰(zhàn)。

那么,提高對深度偽造的意識,就能提高發(fā)現(xiàn)它的概率嗎?

答案并不樂觀。最近的實驗結(jié)果表明,提高這種意識可能并不能提高人們發(fā)現(xiàn)它們的機(jī)會。因此,研究人員預(yù)計,犯罪分子在未來幾年將增加對深度偽造的使用。

這也表明,了解深度偽造的威脅并做好準(zhǔn)備至關(guān)重要。對此,觀察報告討論了對深度偽造人工檢測和自動檢測的方法。

觀察報告認(rèn)為,人工檢測可以發(fā)現(xiàn)絕大多數(shù)的深度偽造內(nèi)容。但這是一項勞動密集型工作,只能對數(shù)量非常有限的內(nèi)容進(jìn)行檢測,還需要進(jìn)行適當(dāng)?shù)呐嘤?xùn),才能熟悉所有相關(guān)特征,但這也可能引入錯誤的判斷。

那么,自動檢測會是未來的趨勢嗎?

理想情況下,自動檢測系統(tǒng)將掃描任何數(shù)字內(nèi)容,并自動報告其真實性。雖然自動檢測系統(tǒng)可能永遠(yuǎn)都不會完美,但隨著深度偽造技術(shù)的日益成熟,自動檢測系統(tǒng)的高度確定性或許比人工檢查更有價值。

Facebook和安全公司McAfee等機(jī)構(gòu)已經(jīng)在開發(fā)這類軟件。檢測軟件將尋找操縱的跡象,并通過對這些跡象生成解析報告,幫助審查員決定內(nèi)容的真實性,但這種檢測技術(shù)也面臨諸多挑戰(zhàn)。

觀察報告認(rèn)為,在未來的幾個月和幾年里,威脅行為者極有可能會越來越多地使用深度偽造技術(shù),為各種犯罪行為提供便利,并開展虛假信息活動,以影響或扭曲公眾輿論。而機(jī)器學(xué)習(xí)和人工智能的進(jìn)步,將繼續(xù)增強(qiáng)用于制造深度偽造的軟件的能力。

專家表示,生成式對抗網(wǎng)絡(luò)、公共數(shù)據(jù)集的可用性和計算能力的增強(qiáng),將是未來深度偽造發(fā)展的主要驅(qū)動力,并使其與真實內(nèi)容更加難以區(qū)分。

參考材料:

https://www.europol.europa.eu/publications-events/publications/facing-reality-law-enforcement-and-challenge-of-deepfakes#downloads

標(biāo)簽: 人工智能 合成技術(shù)

關(guān)閉
新聞速遞