人工智慧技術持續突破,「深偽語音」已不再只是科幻情節。根據資安公司Pindrop調查,2024年第4季的語音詐騙攻擊量較第1季暴增173%,甚至連金融機構也難以招架。面對真假難辨的合成語音,資安業者正以AI反制AI,展開一場前所未有的攻防戰。
「深偽技術若是一種病毒,現在已進入大流行時期。」專家這麼形容AI語音合成帶來的威脅。從電影、遊戲到紀錄片,合成語音早已成為商業應用工具,但同樣的技術如今也被詐騙集團大量濫用,使資安風險急遽升溫。
透過蒐集目標人物在網路上的公開聲音資料,搭配AI語音模型,如Respeecher或Nvidia的生成引擎,詐騙者能模擬出幾乎一模一樣的語調、語速、情緒甚至口音。這類聲音深偽技術已成功跨越「恐怖谷」—人類對接近真實但不自然模仿物產生反感的心理臨界點。
目前的語音深偽不僅音質自然,連情緒、停頓與反應速度也幾可亂真。Pindrop資深主管Rahul Sood表示,曾使用深偽技術合成一名董事的語音,其本人播放後竟連妻子都無法辨別真假。這項技術在精準度與即時性上已臻成熟,傳統生物辨識如聲紋驗證已難以招架。
根據Pindrop統計,美國大型銀行在2024年第4季平均每天遭受5起以上的語音深偽攻擊,區域型銀行也從每日不到1起暴增到超過3起,更有單一金融機構通報詐騙量年增12倍。該公司預估,到2025年底,這類詐騙將再成長162%。
目前偵測系統的關鍵在於即時監控與AI訓練模型。Sood指出,儘管人耳無法分辨真假,電子偵測卻能找出合成語音中「微不可察」的破綻,如聲波延遲、細微節奏錯亂等。即使面對從未接觸過的新模型,Pindrop系統在實測中仍達到90%的偵測率,訓練後更提升至99%,顯示AI對抗AI的效果顯著。
面對語音深偽詐騙的崛起,企業與機關應儘速升級多因子驗證機制(MFA),將AI語音偵測納入安全防線。同時,定期更新偵測模型資料庫,掌握最新生成技術趨勢,才能避免成為下一個受害目標。
資料來源:Security Week, https://www.securityweek.com/deepfakes-and-the-ai-battle-between-generation-and-detection/