關鍵基礎設施AI與OT整合的國際共識
隨著數位轉型浪潮,人工智慧(AI)正快速滲透至關鍵基礎設施的營運技術(OT)環境中,從提升效率、優化決策到增強系統韌性,帶來巨大潛力。然而,OT系統的特殊性,如高可靠性要求、長生命週期及對實體世界的直接影響,使得AI的引入伴隨著複雜且嚴峻的安全風險。為了系統性地應對這一挑戰,由美國網路安全與基礎設施安全局(CISA)聯合多個國際安全機構共同發布的《人工智慧安全整合到營運技術中的原則》文件,成為指導全球關鍵基礎設施所有者和營運商的權威框架。
這份指南不僅涵蓋了機器學習(ML)、大語言模型(LLM)和AI代理等先進技術的應用,更將安全保障的核心聚焦於四大關鍵原則:理解風險、評估應用、建立治理與嵌入安全機制。本研究報告將基於此份國際共識,深入探討AI在OT場域的技術部署細節、潛在的威脅模型,並提供落實安全與韌性的實務性建議,以期為台灣乃至全球的關鍵基礎設施保護提供深度參考。
背景與動機:網路安全新挑戰的應對
全球工業系統的智慧化已成為不可逆的趨勢,特別是電力、水務、交通、製造等關鍵領域,對於即時性、準確性和自動化的需求日益增高。AI技術以其強大的數據分析和模式識別能力,在預測性維護、異常行為偵測、流程優化及自主控制方面展現出前所未有的價值。然而,OT環境的歷史遺留系統(Legacy Systems)特性、嚴苛的運行延遲要求,以及一旦失效可能導致的重大實體後果,使得對AI系統的依賴性成為一個重大的安全邊界擴展問題。
資料完整性失真(Data Integrity Degradation)、對抗性攻擊(Adversarial Attacks)引發的模型誤判、難以解釋的模型決策(Explainability Issues),以及潛在的供應鏈漏洞,都是AI與OT整合過程中必須直面和緩解的挑戰。因此,國際合作夥伴的聯合發布,體現了將AI技術的效益與OT系統固有的安全需求進行平衡的迫切性。這項指南的發布,正是為了提供一個基於風險、具備實務操作性的框架,引導營運者安全、負責任地利用AI。
以下是國際安全機構對此發布的核心資訊,是理解本研究報告基礎架構的關鍵:
美國網路安全與基礎設施安全局 (CISA) 與澳洲信號局下屬的澳洲網路安全中心 (ASD ACSC) 聯合聯邦和國際合作夥伴,於週三發布了一份針對關鍵基礎設施所有者和營運商的網路安全指南,旨在指導他們將人工智慧 (AI)整合到營運技術 (OT) 系統中。該文件概述了所有者和運營商可以遵循的四個關鍵原則,以在降低風險的同時,充分發揮人工智慧整合到營運技術系統中的優勢。指南重點關注機器學習、基於大型語言模型的人工智慧以及人工智慧代理,因為它們帶來了複雜的安全考慮和挑戰。此外,該指南也適用於採用傳統統計建模和基於邏輯的自動化技術增強的系統。《人工智慧安全整合到營運技術中的原則》文件概述了將人工智慧安全整合到營運技術(OT)系統中的基本原則。該文件強調對員工進行人工智慧風險和安全開發生命週期的培訓,評估採用人工智慧的商業案例,並解決營運技術環境中的短期和長期資料安全風險。此外,該文件也敦促各組織實施全面的治理框架,以確保符合監管要求並對人工智慧模型進行持續測試。最後,該文件強調需要持續監督、提高透明度,並將人工智慧整合到事件回應計畫中,以確保安全。以下是這份指南摘要內容:
- 核心四大原則
- 了解 AI:培訓人員認識 AI 風險,落實安全開發生命週期。
- 評估 AI 在 OT 的應用:衡量業務價值,辨識資料安全風險與整合困難。
- 建立治理架構:實施監控、測試、合規流程與供應鏈透明。
- 嵌入安全與可靠性措施:包含透明度、human-in-the-loop、故障應變、納入事件回應。
- 背景需求與應用層面
- 為何重要? AI 可提升 OT 的效能、準確性與韌性,但也會引入對抗性攻擊、資料洩露、模型偏差等風險。 [infosecuri...gazine.com], [cybernews.com]
- 技術層次應用:
Purdue Model 層級:
-Level 0–1(感測器與 PLC/RTU):AI 用於即時異常偵測。
-Level 4–5(企業 IT 層):LLM 協助資料分析。
- 資料保護考量:包括工藝數據、配置檔等敏感資料保護。
- 附加資訊與其他作為
更早適用規範:
- 2024 年 CISA、NSA、FBI 與合作夥伴發布 AI 資料安全指引。
- 2025 年 1 月推出 AI Cybersecurity Playbook,強化各界 AI 資安協作。
- 同時發布全域 OT 資產清查指南。
- 專家觀點
- 國際合作稀有且重要: NCC Group 表示「OT 專區指引少見,而本次合作是一大突破」。
- 實務運作痛點:遺留系統相容性差、延遲高、資料品質不穩、人為註入仍是挑戰。
- 關鍵外部挑戰與建議
- 安全難題:包括資料完整性失真、模型漂移、供應鏈不透明與雲端相關風險。
- 實務措施:使用沙盒測試、人為干預機制、定期審核與符合國際標準。
人工智慧安全整合於營運技術的四大核心原則
這四大原則構成了關鍵基礎設施安全採用AI的戰略支柱,要求組織採取全面、主動和跨領域協作的方法。
原則一:深入理解人工智慧及其對OT環境的影響
理解AI在OT中的獨特風險是所有安全工作的基礎。這不僅限於技術層面的了解,更涉及對組織人員的培訓。由於OT系統的數據特性(通常為時序數據、流程數據),AI模型容易遭受數據投毒或對抗性攻擊,導致模型產生誤判,進而引發實體世界的危險操作。組織必須將AI風險納入其標準風險評估框架中,實施安全開發生命週期(Secure Development Lifecycle, SDL),確保從模型設計、訓練到部署的每個階段都考慮到潛在的安全漏洞和倫理問題。此外,應評估AI對 OT 操作韌性、延遲要求和故障恢復能力的影響。
原則二:審慎評估AI在OT領域的應用價值與可行性
在OT環境中部署AI,必須證明其帶來的商業價值和運營優勢能夠抵銷其引入的複雜性與風險。營運商應進行嚴格的商業案例評估,而不應僅僅追求「最新技術」。評估內容應包括:AI是否比傳統的統計或邏輯控制方法更優越、所需的數據品質和數量是否可持續提供、AI系統的維護成本、以及在OT環境中可能產生的短期與長期的資料安全風險。特別是涉及工藝數據、配置檔等高度敏感資料,必須制定清晰的數據駐留、加密、傳輸和儲存政策。指南同時強調了供應商透明度的重要性,要求營運商在採購時,需瞭解供應商如何將AI嵌入產品中,並要求提供軟體物料清單(SBOM)以及模型供應鏈的可見性。
原則三:建立全面性的AI治理與保證框架
有效的AI治理架構是確保AI系統合規、可靠及安全的基石。治理框架應涵蓋AI系統從採購、開發、部署到營運的整個生命週期。這需要高階領導層(如CEO、CISO)的承諾,確保AI安全風險獲得與功能性同等的重視。組織應建立跨職能的AI治理委員會,成員應包括OT、IT和AI專家,以確保不同領域的專業知識能充分識別和解決潛在的集成挑戰。治理框架必須包含持續的AI模型測試與驗證,以檢測模型漂移(Model Drift)、性能退化或惡意注入,同時確保符合如NIST AI RMF等國際風險管理標準,並制定供應鏈透明化協議。
原則四:在AI及AI啟用的OT系統中嵌入強健的監督與故障安全機制
由於AI模型固有的不可預測性(特別是LLM)和高複雜度,人工監督和故障安全措施是不可或缺的。核心要求是實施「人在環路」(Human-in-the-Loop, HITL)機制,確保操作員始終擁有最終決策權和手動干預能力,避免AI自主控制導致災難性後果。OT營運者必須建立AI組件的資產清查,監控其輸入和輸出,並為OT環境建立「已知的良好狀態」(Known Good State)或安全行為閾值。這允許在AI系統發生異常時快速切換到備份或手動模式。將AI系統納入現有的事件回應(Incident Response)計畫中,提前定義在AI故障、受損或提供錯誤建議時的應變流程,是確保營運持續性的關鍵。
技術層次分析:普渡模型中的AI應用部署
普渡模型(Purdue Model)為OT與IT系統的層級劃分提供了標準框架,有助於精確定位AI技術的部署點與風險邊界。指南按照此模型,劃分了AI在不同層級的應用範疇和潛在風險:
基礎層級(Level 0-1):實體控制與邊緣智能
此層級包含感測器、致動器(Level 0)和PLC/RTU(Level 1)等設備,它們直接與實體流程互動,對延遲要求極高。AI在此層級的應用主要是輕量級、預訓練的機器學習(ML)模型,專注於即時異常偵測、負載平衡和維持已知的安全狀態。風險在於邊緣設備運算資源有限,難以運行複雜模型,且數據投毒可能直接影響控制邏輯。緩解措施要求模型必須極度可靠,且必須具備本地的手動控制和安全聯鎖(Interlocks)機制。
監控與控制層級(Level 2-3):預測性維護與決策支援
Level 2包含SCADA和DCS系統,Level 3包含MES和Historian(歷史資料庫)。AI在此層級主要利用匯總的歷史數據進行預測性維護(Predictive Maintenance)、設備健康監測、以及為操作員提供系統級的性能建議。應用模式多為預測性ML模型。風險主要集中在數據的完整性和機密性。如果惡意行為者操縱歷史數據,可能導致AI模型訓練出錯誤的維護計畫或異常判斷基準(Model Drift)。因此,數據的加密、驗證與隔離至關重要。
企業與商業層級(Level 4-5):資料分析與LLM應用
此層級涉及企業網路(IT)與業務決策。AI系統,特別是大型語言模型(LLM)和AI代理,主要應用於分析從OT導出的數據,以優化業務流程、進行高階趨勢分析、識別跨IT/OT環境的威脅,並支援自主防禦能力。由於LLM的生成性特點和解釋性有限,指南明確建議對用於安全決策的LLM優先方法保持謹慎,特別是在涉及人身安全和運營連續性的場景中。此層級的風險主要為資料洩露和LLM生成錯誤或惡意建議,需要強化的身份控制和行為分析來監督。
關鍵風險與實務緩解措施的深度探討
除了四大原則的戰略指導,指南也詳細列出了操作者在實務上必須面對的關鍵風險和緩解措施。
供應鏈透明度與供應商責任
OT設備供應商在AI整合中扮演核心角色,許多現代OT設備已內建AI功能,甚至依賴雲端連接。營運者必須在合同中明確要求供應商:詳細說明AI功能及其運作方式;提供模型供應鏈的資訊,如同要求SBOM一樣;並在發現AI功能可能導致不當指導或動作時,主動通知營運商。缺乏供應鏈的可見性是導致潛在後門、模型漏洞或未經授權數據使用的主要風險。
資料安全與模型完整性挑戰
OT環境中的數據是訓練和運行AI模型的燃料,其安全至關重要。營運商必須制定嚴格的數據使用政策,規範數據的駐留地、通訊路徑、加密方法和儲存。確保模型在訓練、推論過程中使用的數據具備高完整性和品質,以對抗數據污染。此外,為了避免模型在營運過程中因環境變化或惡意攻擊而偏離預期功能(即模型漂移),持續的監測、驗證與定期審核是必要的實務措施,這應通過沙盒測試環境進行系統性的風險驗證。
「人在環路」(Human-in-the-Loop)的不可或缺性
專家觀點,如Darktrace CEO Marcus Fowler所強調,由於AI固有的不可預測性,特別是對於LLM,在OT安全決策中應鼓勵基於行為分析和異常偵測的方法,而非僅依賴靜態閾值。更重要的是,人為干預機制(HITL)是任何AI賦能OT系統的生命線。這確保了在AI決策不確定或系統故障時,專業操作員能夠介入並將系統恢復到安全狀態。指南強調,必須設計具備高透明度的AI系統,讓操作員能夠理解AI的建議基礎,從而做出 informed 的最終決策。
對台灣關鍵基礎設施的啟示
CISA與國際合作夥伴發布的這份聯合指南,標誌著全球對AI在OT領域風險認知和安全實踐的成熟。它不僅是技術性的建議,更是一個策略性的治理框架,呼籲營運商採取整體性的方法來管理這一新興技術。
對於台灣的關鍵基礎設施產業而言,這份指南具有極高的參考價值。面對地緣政治風險和日益複雜的網路攻擊威脅,加速OT系統的智慧化勢在必行。然而,成功的整合絕非單純的技術疊加,而是在於建立以安全為核心的治理文化。組織應立即啟動以下行動:
技能與知識落差彌補: 積極培訓OT團隊,使其具備AI風險識別和安全開發的基礎知識,以克服NCC Group專家所指出的「技能落差」。
供應鏈風險管理: 將AI供應鏈透明度要求納入所有OT採購合約的標準條款,確保對模型來源與內建功能的完全可見性。
韌性設計優先: 在任何AI部署中,都應優先考慮「人為干預機制」、「島嶼模式操作(Operate in Island Mode)」和強健的故障應變能力,確保在極端條件下仍能保障實體安全與運營連續性。
總結而言,人工智慧為關鍵基礎設施帶來了效率與韌性的新時代,但其安全整合需要依循國際標準,從宏觀的治理架構到微觀的實務操作(如沙盒測試與持續監測)進行全面、系統性的規劃與執行。只有平衡創新與安全,才能確保OT環境在擁抱智慧化的同時,持續提供安全、可靠的關鍵公共服務。
資料來源:https://industrialcyber.co/cisa/global-security-agencies-issue-joint-guidance-to-help-critical-infrastructure-integrate-ai-into-ot-systems/
深入解析美國CISA與國際夥伴針對關鍵基礎設施AI與OT系統整合所發布的聯合安全指南,內容涵蓋四大核心原則、普渡模型應用層次分析、治理框架建立及專家觀點,為營運者提供降低風險、保障安全與韌性的實務建議。