如今,深度偽造影片製作工具的功能更加強大,價格也更加低廉,使用也更加便利。犯罪者只需極少的預算、精力和專業知識,就能輕鬆製作出極具說服力的深度偽造影片。未來,深度偽造影片製作工具的價格只會越來越低,效率也會越來越高。
以下是趨勢科技有關這個議題的專文節錄內容,完整報告請以本報告最後面提供的hyperlink閱讀趨勢科技原始研究報告:
早在生成式人工智慧應用成為主流之前,犯罪者就一直試圖利用深度偽造技術進行社會工程和虛假資訊牟利,而這項技術正幫助惡意行為者以全新且日益有效的手段牟利,從勒索消費者到詐騙企業。Deepfake 技術已從一項小眾實驗轉變為網路犯罪分子手中的強大武器,影響著個人和組織。
利用 Deepfake 進行的網路犯罪
各種形式的深度偽造技術 (DeepFake) 都已存在相當長一段時間:2017 年,科技界試驗了像DeepFaceLab這樣的工具,該工具在隔年便成為主流。自從 DeepFake 技術普及到大眾視野以來,我們目睹了網路犯罪分子利用該技術,從傳播虛假訊息的虛假宣傳影片到加密貨幣詐騙,甚至針對特定個人或組織的攻擊,例如2019 年首例利用深度偽造音訊的 CEO 詐騙案。
針對消費者的 Deepfake 網路犯罪
與企業攻擊不同,消費者攻擊往往範圍廣泛且不加區分,幾乎不需要任何關於目標受害者的先驗資訊。然而,我們也開始觀察到針對個人的個人化攻擊增加,我們將在本節中討論這一點。
犯罪者可以利用現成且價格低廉的工具,輕鬆產生不分年齡的裸照。值得注意的是,受害者刪除這些照片的難度極大,對於名人而言更是如此。此外,世界許多地方在公眾法律保護和將此類行為定罪方面都落後。深度偽造的虐童內容也給執法部門帶來了額外的挑戰,因為試圖找到並不存在的受虐未成年人可能會耗費時間和資源,而這些時間和資源原本可以用來挽救那些確實存在的未成年人。
偽造輕鬆打造深度
Deepfake 生成工具通常捆綁在便利的一體化套件中,但有些平台標榜自己是生成合成媒體的全面、一站式解決方案,而另一些平台則專注於單一領域——例如音訊、視訊或圖像——並且通常能夠提供更令人信服的結果。
主流的基於人工智慧的圖像生成器允許用戶創建根本不存在的人物的超現實肖像,或偽造逼真的、以真實人物形象呈現的圖像。一些更邪惡的工具甚至更進一步,例如根據真人或虛構人物的照片生成裸照。
Deepfake音訊
在分析中首先註意到的是,人工智慧語音生成技術市場已經非常成熟,許多服務都提供語音克隆和錄音室等級的配音。這些服務徹底改變了這個行業,因為它們消除了製作高品質音訊的傳統障礙,例如對錄音設備的需求、安靜的環境,甚至需要演講者親自到場。例如,Speechify 是一個每月 9.99 美元的訂閱平台,任何人都可以創建有聲書。它依靠語音複製和文字轉語音工具,讓使用者無需進入錄音棚,就能用自己的聲音生成書籍的旁白版本。
同時,Play.ht 等其他平台也提供 API,將語音合成與對話式 AI 整合。這使得企業能夠建立聲音自然、可與用戶即時對話的互動式 AI 代理,這項功能在客戶支援等領域尤其有用。
儘管這些服務有許多合法的應用,但它們被濫用的可能性不容忽視,提供者應該注意其產品的呈現和使用方式。例如, Play.ht以「駭客計劃」的名義推廣其低端 API 計劃,每月僅需 5 美元。這個名字聽起來很吸引人,但考慮到不當使用合成音訊可能帶來的風險,也可能引發擔憂。
鑑於社群媒體或影片內容中公開的音訊片段數量龐大,以及深度偽造音訊的製作變得如此容易,聲音竊取的威脅已不再是我們可以低估的。
影片深度偽造
人工智慧驅動的影片生成平台正迅速普及,因為它們讓製作專業水準的影片內容變得更加容易。但這種便利性也為濫用打開了大門:只需投入少量精力、技術或資源,任何人都可以製作出令人信服卻可能造成危害的合成影片。合成影片平台改變了遊戲規則,尤其對內容創作者而言。它讓任何人都能製作引人入勝的高品質視頻,即使是非常害羞或缺乏上鏡經驗的人也能輕鬆上手。
對於犯罪者來說,即使是最昂貴的服務,也只是成功攻擊後潛在投資回報的一小部分,因此物有所值。表 3 列出了一些提供 AI 產生影片內容的服務。請注意,以上價格是根據撰寫本文時的報價。
人工智慧生成的圖像
人工智慧影像處理技術已變得如此先進且易於上手,不再局限於技術嫻熟的演員或小眾群體。市面上有各種深度偽造影像產生服務,不僅提供影像換臉功能,還提供影片片段和串流媒體的換臉功能。
DeepSwap 提供的是這類服務,但它的突出之處在於其高品質的影像,尤其是在靜態影像方面。即使在涉及各種面部表情和情緒、以及不同的拍攝角度和光照條件等具有挑戰性的場景下,他們的平台也能提供令人信服的效果。然而,惡意使用者可能會濫用其服務的有效性,將某人置於他們從未經歷過的情境中,或將新面孔疊加到數位文件上,使其成為傳播虛假訊息和欺騙的有力工具。
地下討論中的 Deepfakes
涉及深度偽造圖像、音訊、視訊和視訊串流的犯罪商業計劃,只需相對較少的技能和資金投入,就能開發和改進詐騙及其他犯罪手段。這使得它們成為理想的網路犯罪工具。合成媒體生成服務易於使用,網路上已經有許多工具可以以非常實惠的價格製作高品質的偽造內容。
在2024年地下犯罪活動的調查中,我們發現一些犯罪者的深度偽造製作工具已經不再使用。這可能是因為通用深度偽造軟體的廣泛普及,使得犯罪者專用工具變得過時。在我們對2025年地下犯罪活動的觀察中,惡意行為者已經在討論如何將通用且廣泛使用的深度偽造製作軟體作為他們的首選工具包。我們已經看到了一些深度偽造製作教學和劇本,它們教導其他犯罪分子如何利用網路上的開源和閉源工具來實現犯罪目標。
早在2024年11月,我們就在一個犯罪論壇上觀察到一名攻擊者分享了一個使用Deep-Live-Cam製作深度偽造影片的腳本。 Deep-Live-Cam是一款免費的開源工具,使用ffmpeg作為多媒體函式庫,並使用Visual Studio編譯原始碼。該教程技術性強且非常詳細,任何讀者都可以按照步驟免費製作深度偽造影片。它還包含一個選項,可以使用視訊串流驅動程式Open Broadcaster Software (OBS)來更改網路鏡頭,將深度偽造疊加在罪犯的臉上。
2024年12月初,一名犯罪分子在一個地下論壇上發布了一份教程和攻略,其中提供了一些服務和工具,用於幫助加密貨幣交易所、約會和金融應用程式以及線上賭場成功通過KYC驗證。
2025年1月,另一名攻擊者提供按需製作深度偽造影像的服務,專門用於繞過KYC檢查。此人分享了他們使用的工具包:他們提到了開源工具DeepFaceLive和DeepFaceLab,以及語音克隆工具AI Voice Changer。該攻擊者還提到,他已經成功繞過了兩家不同加密貨幣交易所的KYC檢查。
結論
如今,深度偽造技術比以往任何時候都更容易獲得、更經濟實惠,而且隨著時間的推移,它只會變得更便宜、更先進。不幸的是,與這項技術相關的風險也在快速增長:從企業間諜活動到身分盜竊、金融詐欺和個人勒索,企業和個人都面臨風險。
更令人擔憂的是,網路犯罪者越來越依賴合法、廉價且易於使用的服務。惡意攻擊者不僅知道如何使用這些工具,還會在地下論壇上分享技巧和竅門,以改進他們的攻擊方法,這使得更多不良行為者更容易利用這些技術進行惡意攻擊。
雖然我們已建議提供者保護其工具免於濫用,但務必記住深度偽造技術已經十分普遍;即使只有一家提供者未能做出適當回應,後果也可能十分嚴重且不可逆轉。理想情況下,隨著人工智慧媒體的激增,社會將更加意識到其被濫用的可能性及其相關風險。但這種日益增長的意識也帶來了更深層、更隱密的威脅:信任的侵蝕。隨著深度偽造的普及,它們模糊了事實與虛構之間的界限,從而削弱了我們對所見所聞的信任,最終侵蝕了我們獲取世界知識的基礎。
這意味著我們必須接受這樣一個事實:所有內容都可能預設為假。如今「信任但需核實」的思考模式或許已不再適用。換句話說,我們正在遠離一個可以信任所見所聞的世界,走向一個「零信任」的世界。在這個世界中,內容必須證明其真實性,否則將被視為可疑。
正如我們所見,僅僅意識到內容可能是人工智慧生成的已經遠遠不夠。隨著信任度的下降,人們將開始忽視真實的內容和合法的溝通。為了保持安全,我們必須採用檢測深度偽造的工具。
報導原文:https://www.trendmicro.com/vinfo/ph/security/news/cybercrime-and-digital-threats/deepfake-it-til-you-make-it-a-comprehensive-view-of-the-new-ai-criminal-toolset