報導摘要
美國國家標準與技術研究院 ( NIST ) 發布了一份新概念文件,提出了保護人工智慧系統安全的控制覆蓋框架,這是管理人工智慧 ( AI )安全風險的重要一步。該框架建立在著名的 NIST 特別出版物 (SP) 800-53 之上,許多組織已經熟悉該框架用於管理網路安全風險,而這些覆蓋本質上是一套幫助組織的網路安全指南。
在此框架中,NIST 確定了使用 AI 的組織的用例,例如產生 AI、預測 AI 和代理 AI系統,此舉被視為一個正面的開端。不過AppOmni人工智慧總監Melissa Ruzzi認為指南需要更加具體才能真正發揮作用。Ruzzi強調「
指南應該根據所使用的資料類型(例如個人資訊或醫療資訊)納入更具體的控制和監控措施」。這一點至關重要,因為該論文的目標是保護每個用例的資訊的機密性、完整性和可用性。
Ruzzi的評論凸顯了為一項快速發展的技術創建通用安全框架所面臨的關鍵挑戰。 NIST的論文只是第一步,該組織目前正在徵求公眾回饋,以幫助完善最終版本。NIST 甚至推出了一個Slack 頻道,方便專家和社群成員參與討論,為這些新安全指南的製定貢獻力量。這種協作方式表明,NIST 致力於打造一個全面且實用的框架,使其適用於現實世界。
SP 800-53 人工智慧系統安全控制覆蓋概念
- 治理與責任界定
- 建立 AI 風險治理架構,指定跨部門責任單位與決策權責。
- 明確定義 AI 模型的生命週期責任:設計、訓練、部署、維護、退役。
- 資料治理與完整性
- 建立資料來源、收集、清理、標註的驗證流程。
- 確保資料集透明,維護可追蹤性 (traceability) 與可審計性 (auditability)。
- 模型安全與韌性
- 針對對抗性攻擊 (Adversarial Attacks)、資料投毒 (Data Poisoning) 與模型竊取 (Model Extraction) 設置檢測與防禦措施。
- 部署模型前執行多層次測試,包括安全性、偏差性、公平性與穩定性。
- 部署與存取控制
- 嚴格限制模型 API 與權限存取。
- 對應零信任架構 (Zero Trust Architecture),確保 AI 元件與 IT/OT 系統整合時的安全邊界。
注意事項 (Considerations)
- 合規與標準
- 確保符合 NIST AI RMF、ISO/IEC 42001(AI 管理系統標準)與行業監管要求。
- 對接組織既有資安框架 (如 NIST CSF、ISO 27001)。
- 倫理與偏差:防範 AI 偏差導致的倫理與法律風險,將公平性與透明性列為評估指標。
- 供應鏈風險
- 驗證 AI 模型來源,確保第三方模型、開源元件的安全性。
- 建立軟體物料清單 (SBOM) 與模型物料清單 (Model BOM, MBOM)。
- 持續改進
- 強化事件回報與學習流程,結合 PSIRT (產品安全事件應變小組) 處理 AI 相關事故。
- 建立版本控制與退場計畫 (decommissioning plan),避免舊模型持續曝險。
資料來源:https://hackread.com/nist-concept-paper-ai-specific-cybersecurity-framework/
本文深入探討此框架如何基於既有標準,並透過疊加方式應對生成式、預測性等AI系統的獨特風險與挑戰。