將零信任原則擴展到人工智慧代理:「永不信任,始終驗證」走向自主
當企業邁向新一輪數位轉型的高峰,人工智慧代理已成為業務效率的關鍵推動者。然而,這種前所未有的自主權和執行速度,正對傳統資安框架帶來顛覆性的挑戰。隨著企業快速採用人工智慧助理和自主代理來簡化工作流程並提高效率,他們可能在不知不覺中擴大了攻擊面。無論人工智慧代理是嵌入在IT維運、客戶服務流程或基於LLM的內部工具中,它們都在代表我們行事,做出決策,存取敏感數據,並以機器速度執行自動化操作。 挑戰在於:大多數安全框架在設計之初並未考慮到這些新型代理角色。幾十年來,身分管理一直以人為中心。隨後出現了服務帳號、容器和API(機器身分),它們需要獨立的管理系統。如今,我們面臨下一個發展階段:代理身分。
人工智慧體擁有人類般的靈活性,但規模和速度卻堪比機器。與靜態程式碼不同,它們能夠學習、適應並自主決策。這意味著它們的行為更難預測,而且它們的存取需求也會動態變化。 然而,如今許多這類代理人擁有硬編碼的憑證、過大的權限,卻缺乏真正的問責機制。本質上,我們就像給實習生發了個管理員徽章,然後讓他們趕緊行動。 「永遠不要相信,一定要核實」—人工智慧 零信任始於一個簡單的原則:永遠不要相信,永遠要驗證。它假定使用者、機器和代理都可能遭受攻擊,並要求對每一個存取請求,無論其來源如何,都進行身份驗證、授權和監控。這種理念完全適用於自主智能體。以下是它在實踐中的具體體現:
(1) 身分優先存取:每個AI代理必須擁有唯一且可審計的身分。禁止共享憑證。禁止匿名服務令牌。每個操作都應可追溯。
(2) 預設採用最小權限原則:客服人員應僅擁有履行其職能所需的最低存取權限。例如,如果客服人員被設計為讀取銷售數據,則不應能夠寫入帳單記錄或存取人力資源系統。
(3) 動態、情境化的權限執行:隨著智能體的發展和任務的改變,其權限必須不斷重新評估。靜態策略行不通。決策應基於即時情境,例如正在存取的內容、訪客以及存取條件。
(4) 持續監控與驗證:自主並不意味著無人監管。代理程式必須像特權使用者一樣受到監控。異常行為,例如存取新系統、傳輸大量資料或提升權限,都應觸發警報或採取干預措施。
安全專家如今面臨著微妙的平衡。一方面,他們希望促進創新;另一方面,他們又需要維護紀律。在人工智慧領域,這種平衡尤為重要。解決方案在於設計能夠適應不同規模的護欄。這意味著:
(1) 限定範圍的令牌和短期憑證:與其使用長期有效的金鑰,不如頒發具有限定範圍的、有時效性的存取權杖。即使洩露,這些令牌也會迅速失效,造成的損失降到最低。
(2) 分層信任模型:並非所有操作都同等重要。例行的、低風險的任務可以自由自動化。而高風險操作,例如刪除資料或轉移資金,則應需要人工審批或多重觸發機制。
(3) 設定存取權限邊界:限制客服人員隨意撥打任何電話、使用任何服務。嚴格執行存取權限策略和服務等級邊界,確保他們恪守職責。
(4) 明確的所有權:每個代理人都應該有一個內部的人類所有者,由某人對其目的、行為和權限負責。
我們正在進入一個「登入」不再僅僅屬於人的時代。代理程式也在編寫程式碼、分析風險、查詢資料並與客戶溝通。如果我們把他們當作身分認同策略中的附屬品,我們就是在建構基於盲目信任的系統,而這正是零信任機制旨在防止的。 首席資訊安全官 (CISO) 必須發揮領導作用。首先,需要擴展零信任框架,明確納入自主代理。在此基礎上,需要投資以身分為先的 AI 安全架構、監控工具和存取治理,以應對非人類行為者。如果您正在擴展 AI 基礎設施,Token Security 可以協助您確保整個過程中的安全。
這場安全典範的轉移,核心在於消除「過度代理權限」(Excessive Agency)的風險。當一個設計用於處理低風險工單的AI,被錯誤配置或透過指令注入而取得存取核心資料的權力時,其潛在的破壞力遠超人類失誤。因此,首席資訊安全官(CISO)的決策至關重要:必須將AI代理視為最優先、最嚴謹管理的「一級身分」。安全不再是阻礙AI發展的障礙,而是確保其能夠在可信賴、可追溯、可問責的軌道上高速運行的必要基礎。唯有採納以身分為先的AI安全架構,企業才能安全、有紀律地擴展其AI基礎設施,並在自主代理時代中維持強固的資安態勢。
資料來源:https://www.bleepingcomputer.com/news/security/extending-zero-trust-to-ai-agents-never-trust-always-verify-goes-autonomous/
企業在快速採用AI代理時,資安風險隨之擴大。了解如何將「永不信任,永遠驗證」的零信任原則,應用於動態、自主的AI身份,實施最小權限、動態監控及存取邊界,以確保AI基礎設施的安全與問責制。