關閉選單
解析代理式攻擊安全(Agentic Offensive Security)的存在性威脅

Ari Herbert-Voss 指出,這可能是一個機會。隨著大型語言模型(LLMs)的出現,例如 Anthropic 的 Mythos,以及 OpenAI 的 GPT-5.5,資安界出現大量猜測,認為我們正邁入一個跨平台與基礎設施的工業化、自主化、大規模利用時代,彷彿無法躲避的核威脅,有些人擔心這些前沿大型語言模型將導致資安毀滅。

然而,RunSybil 執行長 Ari Herbert-Voss 表示,儘管防禦方需要調整風險評估以因應 AI 帶來的加速威脅,但人類努力的限制仍然會影響這些威脅的實際成效;同時,這也為資安產業帶來一個學習契機。

他指出,這種情況類似於 2000 年代的模糊測試工具(fuzzers)。當時,人們認為自動化工具可以大規模快速發現系統當機,將使漏洞研究人員失去價值,並引發前所未見的零日漏洞潮。然而實際結果是,雖然漏洞數量增加,但也帶來大量潛在錯誤,需要人類進行篩選、分析與判斷。

換言之,即使工具能發現問題,仍需要人類識別哪些漏洞可被利用,並追溯其成因。這使漏洞研究人員的價值反而提升。同樣地,LLM 能夠自動生成大量資料、確認問題存在,並提出攻擊利用方式,但「發現問題」與「如何處理問題」仍是不同層面的挑戰。這凸顯人類專業在攻擊與防禦中的關鍵角色。

Herbert-Voss 強調:「能力上限正在迅速提升,但能力下限並未同步提升。」團隊現在可以生成更多潛在漏洞,但判斷哪些具有實際資安影響,仍需仰賴人類,這種落差成為核心問題。

在攻擊能力方面,自主化表現確實快速提升。他提到「擴展假說(scaling hypothesis)」:更多資料、更多運算能力與更多參數,能顯著提升模型表現,且近年呈現超線性成長,即模型規模翻倍可能帶來四倍能力提升,形成新舊世代模型的差異。

數據顯示,2023 至 2026 年間,漏洞從發現到被利用的平均時間,已從五個月縮短至 10 小時。這使「向左移動(shifting left)」變得更加重要,因為未來幾乎無法在漏洞未被迅速發現與利用的情況下發布軟體。這一趨勢已在 CTF(capture-the-flag)競賽中顯現,過去需數小時的題目,現在幾分鐘內即可被解決。

然而,LLM 在不同漏洞類型上的提升並不一致。對於低嚴重性的「淺層漏洞(shallow bugs)」有顯著進展;中等漏洞則為適度提升;對於高嚴重性漏洞的進展則相對有限。因此,人類仍需大量參與篩選與驗證工作。

在多步驟攻擊方面,最新評估顯示,模型已能在受控環境中自主執行長時間攻擊流程,完成攻擊鏈的重要部分,這是早期模型無法達成的。然而,在真實世界環境中,其表現仍不穩定。

此外,在評估漏洞實際影響時,模型並不能保證結果具有價值。實驗顯示,雖然自動化系統產生大量資料點,但仍需大量人工審查才能篩選出有效結果。攻擊者可能偶爾成功,但若要針對特定目標達成穩定效果,仍需多次嘗試。在實務上,這對防禦方形成重大挑戰。防禦者需要對每個被發現的漏洞作出回應,而攻擊者只需偶爾成功即可。

在策略層面,自主攻擊系統已能串聯漏洞、執行偵察並動態調整攻擊過程。Herbert-Voss 指出,工程團隊需要資源與能力轉型為 AI 原生(AI-native),並釐清哪些技術應自行開發,哪些應外部採購。同時,他提醒市場存在誇大 AI 能力的問題,資安領導者需對供應商提出驗證要求。他提出四項關鍵技術方向:

✔  第一,改進推理能力。資安高度依賴深度推理,例如系統運作方式、潛在失效情境及因果關係判斷。

✔  第二,改進工具調用能力。代理需要能與現實世界互動,並有效使用工具來驗證漏洞。

✔  第三,高品質測試框架(harness)工程。代理需在有限上下文中獲得正確資訊與工具,以提升成功率。

✔  第四,建立支援多代理協作的系統。單一代理能力有限,需透過系統設計促進代理間有效協作。

整體而言,漏洞發現速度將持續加快,前沿模型的可及性也將提升。Herbert-Voss 認為,這一趨勢同時帶來挑戰與機會。他總結指出,AI 產業正面臨擴大技術可及性的經濟壓力,這對正反兩面用途皆適用。雖然發展速度引發關注,但也為建立多層防禦、加強修補機制提供契機,使產業能推動原本應該持續進行的安全實踐。

資料來源:https://www.darkreading.com/cyber-risk/industrialized-exploitation-agentic-offensive-security-existential-threat
 
隨著 Anthropic Mythos 與 OpenAI GPT-5.5 等大型語言模型(LLM)崛起,資安界正關注「Agentic AI」帶來的工業化與自動化大規模攻擊威脅。