人工智慧安全已經發展到僅憑熱情不足以推動組織前進的地步,雲端安全聯盟的最新研究表明,治理已成為區分準備好的團隊和準備不足的團隊的主要因素。
治理能夠區分信心與不確定性
治理成熟度是衡量準備度最有力的指標。約四分之一的受訪組織表示已建立全面的AI安全治理體系,其餘組織則依賴部分指導方針或仍在製定中的政策。
這種差異體現在領導意識、員工準備以及對人工智慧系統安全的信心等。擁有完善治理體系的組織,其董事會、高階主管和安全團隊之間的協作更為緊密,他們也對自身保護人工智慧部署的能力更有信心。
正式的治理機制也會影響員工的準備。在製定了相關政策的地區,員工接受人工智慧安全工具和實踐的培訓似乎更為普遍。這有助於團隊之間達成共識,並鼓勵一致地使用已批准的人工智慧系統。
該研究將治理與結構化應用連結起來。明確的政策支援規範的人工智慧使用,並減少未經管理的工具和非正式工作流程,從而降低數據和合規風險。
Google雲端首席資訊安全官辦公室安全顧問安東·丘瓦金博士表示:隨著組織從實驗階段過渡到營運部署階段,強大的安全性和成熟的治理是人工智慧應用的關鍵差異化因素。
安全團隊率先採用
安全團隊在人工智慧應用方面發揮了積極作用。調查結果顯示,人工智慧在安全運作(例如檢測、調查和回應)中得到了廣泛的測試和規劃應用。

智能體人工智慧也正在融入作戰計畫。這些系統支援半自主行動,例如事件回應和存取控制。根據目前的採用時間表,人工智慧很快就會在日常防禦工作中發揮直接作用。
完善的治理機制能夠提升信心。擁有既定政策的組織表示,他們在安全工作流程中使用人工智慧時更加得心應手。這種經驗使安全專業人員能夠直接接觸到人工智慧的行為、限制和依賴關係,從而為風險決策提供基礎。
實際應用正在重塑安全角色。如今,安全團隊能夠更早參與人工智慧的設計、測試和部署討論中,而不是在系統已經部署完畢後才介入。
LLM 成為企業基礎設施
生命週期管理(LLM)已超越試點和概念驗證階段。在受訪組織中,將其積極應用於業務工作流程已成為一種普遍現象。
單一模型策略並不常見。回饋表明,公共服務、託管平台和自管理環境通常採用多種模型。這種方法與成熟的雲端策略相呼應,旨在平衡功能、資料處理和營運需求。
採用率主要集中在少數幾家供應商。四種模型佔據了企業應用的大部分份額,反映出組織機構在採用有限平台集的過程中實現了整合。這種集中化帶來了治理和彈性的考量,因為生命週期管理模式(LLM)正被嵌入核心系統。
該研究將LLM視為基礎架構。它們日益重要的角色對管理複雜環境中的依賴關係、存取路徑和資料流提出了新的要求。
領導階層的興趣超過了保證
在受訪的各組織中,高階主管對人工智慧計畫的支持依然強勁。領導團隊積極推動人工智慧的應用,並認識到其策略重要性。
人們對人工智慧系統安全性的信心並未同步提升。調查結果顯示,受訪者在評估其所在機構保護用於核心業務運營的人工智慧系統的能力時,信心處於中立或較低水平。
研究結果表明,人們對人工智慧安全複雜性的認識正在不斷提高。隨著部署規模的擴大,資料外洩、系統整合和專業技能等方面的挑戰也日益凸顯。這些問題會在人工智慧系統投入生產環境後暴露出來。
所有權分散,安全責任範圍縮小
人工智慧部署的責任仍然是分散的。專門的人工智慧團隊、IT部門和跨職能團隊都在實施決策中發揮作用,超過一半的受訪者認為安全團隊是保護人工智慧系統的主要負責人,這使得人工智慧保護與既有的網路安全架構和報告機制保持一致。
首席資訊安全長 (CISO) 通常與技術和業務領導者一起監管人工智慧安全預算,這使得人工智慧安全既納入營運支出,也納入長期規劃。
該研究表明,所有權模式仍處於轉型期。部署責任涉及多個團隊,而安全責任則在人工智慧生命週期的早期階段就已集中。
資料暴露主導風險思維
敏感資料外洩是受訪者最關注的人工智慧安全問題,規性和監管問題緊隨其後,模型層面的風險較少受到關注,資料投毒、提示注入和模型操縱等威脅的優先順序似乎較低。研究結果表明,人工智慧安全工作通常會將現有的隱私和合規計畫擴展到人工智慧環境中。受訪者指出,難以理解人工智慧風險和員工專業知識有限是保障人工智慧系統安全的持續障礙。
該研究將這段時期描述為過渡時期。各組織在意識到當前資料和合規風險的同時,也不斷熟悉人工智慧特有的攻擊路徑和行為。
資料來源:https://www.helpnetsecurity.com/2025/12/24/csa-ai-security-governance-report/
探討 2025 年 CSA AI 安全治理報告關鍵洞察。報告指出治理成熟度是區分企業 AI 信心與不確定性的核心要素,並分析了 LLM 基礎設施化、資安團隊角色轉變及資料暴露風險,為台灣應用軟件開發與導入提供重要治理準則。