關閉選單
為什麼智能體人工智慧系統需要更好的治理——來自 OpenClaw 的啟示

組織迫切需要圍繞可見性、存取控制和行為監控來建立治理框架,以管理由此產生的擴大的攻擊面。

OpenClaw 是一個開源的自主 AI 代理平台,您可以自行託管並在本機電腦上運行它,以實現任務自動化。基於此平台,AI 代理現在正透過一個名為 Moltbook 的實驗性 AI 代理社交網路進行互動。即使是 Meta 一位經驗豐富的 AI 安全研究員也發現,OpenClaw並非沒有風險。一個 AI 代理意外刪除了自己的電子郵件。這項消息再次將人們的注意力引向賦予人工智慧系統的權限和自主性的本質,以及加強安全性和治理的必要性。

OpenClaw AI 助理不再是傳統的聊天機器人。它們已經過大幅升級,現在是一個透過聊天介面交付的自動化執行層。它們現在可以存取各種工具和系統,並利用持久記憶體和繼承的權限來代表使用者執行操作。您可以將聊天介面視為多步驟執行引擎,它可以處理包括營收營運、IT 服務、人力資源、採購和安全在內的關鍵業務工作流程。

這種轉變具有權威性,因為只需一次提示即可觸發文件存取、API 呼叫、向第三方發送訊息或對基礎設施進行更改。從建議到行動的轉變意味著組織必須從治理的角度看待這一轉變,並專注於提高可見度、控制力和執行力,以支持更好的風險管理。

理想治理策略手冊

OpenClaw 會對使用者、裝置、網路和應用程式帶來風險,而且由於它被廣泛採用,其影響會波及存取、暴露和資料移動等各個方面。因此,理想的治理方法應基於以下幾點:

  可見性:由於29%的員工在工作中使用未經授權的 AI 代理,您的首要目標是了解影子 AI 的使用情況,即誰在使用智慧助理、其位置以及行為模式。這些資訊有助於部署正確的策略。

  控制措施:改善 OpenClaw 的實施和部署安全措施,並在有限部署環境中測試代理程式。這些受到嚴格監控的試驗有助於您明確哪些使用者可以使用 OpenClaw,以及可以在哪些裝置上使用,並在哪些條件下使用。如果無法實施此類控制措施,阻止不受控制的使用通常是降低風險的最快方法。

  阻止惡意路徑:如果偽造的安裝程式、惡意擴充功能或受損元件開始與外部攻擊者控制的系統建立聯繫,網路層級防禦可以偵測到可疑的命令和控制流量以及其他異常行為。

管理智能體人工智慧風險需要的不僅是傳統的網路或應用安全思維。組織需要更深入地了解諸如快速注入、資料外洩和自主濫用等威脅在實際環境中的運作方式。因此,人工智慧安全如今依賴於持續的研究、更深入的行為洞察以及專門針對智慧體運作方式建構的策略控制。

資料來源:https://www.securityweek.com/why-agentic-ai-systems-need-better-governance-lessons-from-openclaw/
 
隨著 Agentic AI 從「建議」轉向「自主執行」,企業面臨前所未有的安全挑戰。