關閉選單
人工智慧能否能更快地建立新的漏洞檢查,又不降低我們的高品質標準?

漏洞管理始終是一場競賽。攻擊者行動迅速,掃描耗時,如果您的掃描器跟不上,您就會暴露在攻擊之下。

正因如此,Intruder 的安全團隊啟動了一項研究專案:探討人工智慧是否能幫助他們更快地建構新的漏洞檢查程式,同時維持對品質的高標準。畢竟,只有可靠的檢測才有價值,會產生誤報或遺漏真實問題的檢查毫無幫助。

Intruder 的安全團隊啟動研究專案,從最簡單的提問開始:將提示輸入到 LLM 聊天機器人中,看看它能否編寫 Nuclei 模板(註)。結果很混亂。輸出引用了不存在的功能,輸出了無效的語法,並且使用了弱匹配器和提取器。 ChatGPT、Claude 和 Gemini 都存在同樣的問題。

註:
"Nuclei 模板" 是 Nuclei 掃描器 的核心組件之一,它是由 ProjectDiscovery 開發的開源安全工具,用於快速、可擴展地進行漏洞掃描與安全檢測。模板的設計讓使用者可以靈活定義各種安全測試邏輯,並自動化執行。


面對大型語言模型(LLM)聊天機器人輸出品質不穩定的問題,Intruder 轉向了更進階的解決方案。

Intruder 的安全團隊嘗試了一種代理方法,團隊使用了Cursor 的代理,很快發現,在最少的提示下,初始運行的輸出品質更為有希望。與聊天機器人不同,代理方法可以使用工具、搜尋參考資料並遵守規則,且效果立竿見影。

代理方法的優勢在於其可控性和學習能力。

緊接著,在此基礎上,Intruder 的安全團隊分層建置規則,並索引了精選的 Nuclei 範本庫。這為代理提供了可靠的範例供其學習,減少了不一致之處,並引導其使用正確的功能。模板的品質顯著提升,遠遠接近Intruder 的安全團隊對工程師的期望

在實際應用中,這種代理式人工智慧展現出明確的成功案例。它特別擅長處理那些沒有公共模板的檢查,例如偵測暴露於網路的管理面板。這類檢查原則上簡單,但大規模編寫卻非常耗時。透過自動化,Intruder 能夠更快地產生更多的此類檢查,有效填補了主要掃描器的空白,為客戶提供更全面的攻擊面視圖。

例如,在創建針對「不安全 Elasticsearch 實例」的檢查時,代理AI在工程師的輸入下(指定任務、測試端點、提供易受攻擊和不易受攻擊的目標範例),成功處理了重複性的繁重工作。最終產生了一個多請求的 Nuclei 模板,包含工作的匹配器和提取器,能夠確認未經身份驗證的使用者是否能讀取資料,從而實現自動化掃描。

但它並非「設定完畢後就忘了」。即使置之不理,該代理仍需要進行航向修正。不過,只要有明確的提示,它就能產生看起來像是手寫的支票。從那時起,Intruder 安全團隊的目標就發生了轉變:不是完全自動化,而是一種生產力工具,可以幫助我們更快地完成品質檢查,而不會降低標準

儘管進展顯著,研究過程中也浮現出一些挑戰:即使設定了規則,代理有時仍會偏離方向。例如,它曾為暴露的管理面板建構了檢查,但匹配器強度不足,可能導致誤報。雖然透過額外的提示(如加入該產品特有的網站圖示匹配器)可以修正,但這提醒我們,在代理能可靠地選擇最強匹配器並進行自我驗證之前,人類的監督仍然至關重要。此外,為了節省代幣,代理在處理 curl 回應時常將其透過 head 截斷,這可能會遺漏作為匹配器的唯一識別碼。有時,代理還會忽略 Nuclei 自身的功能標誌(如 -l),反而編寫手動迴圈腳本,降低了效率。

總體而言,人工智慧被廣泛宣傳為能夠徹底取代複雜任務的靈丹妙藥,其中很大一部分只是市場炒作。我們距離將安全工程交給無人監管的人工智慧代理商還有很長的路要走,為了提供不會錯過漏洞或產生誤報的高品質客製化檢查,專業工程師仍然至關重要

Intruder 的結論是明確的:在漏洞管理領域,AI 目前的最佳定位是一種強大的「生產力工具」,它能夠接管重複性工作,加速品質檢查的交付,同時讓人力工程師將時間投入到更深層次的研究與關鍵判斷上。


資料來源:https://www.bleepingcomputer.com/news/security/can-we-trust-ai-to-write-vulnerability-checks-heres-what-we-found/
 
Intruder安全團隊的實測研究顯示,大型語言模型(LLM)聊天機器人難以直接編寫高品質的漏洞檢查模板,而採用代理(Agentic)方法並結合規則與範例索引,能顯著提升AI作為安全工程師生產力工具的效能。