關閉選單
跨域 AI 安全挑戰與治理藍圖|基礎設施、供應鏈、Bot 生態與情報共享
報告背景

人工智慧 (AI) 的廣泛應用不僅為企業帶來了效率提升,也為威脅行為者帶來了評估,越來越多的組織計劃在未來三年內加大對 AI 的投資。本篇報告是在「趨勢科技人工智慧安全狀況報告(2025 年上半年)」基礎上,合併其它幾個近期和AI有關的報導,整理出跨域 AI 安全挑戰與治理藍圖,提供組織參考。


AI軍備競賽與安全態勢
  1. 攻擊者對 AI 的武器化

隨著生成式 AI(Generative AI)、大型語言模型(LLMs)、AI 代理(AI Agents)逐步成熟,攻擊者迅速將其導入網路犯罪活動。Trend Micro 報告顯示,AI 工具在攻擊鏈中的滲透率已呈現指數級成長,這種成長不僅是工具被動普及,而是有系統地被整合進威脅行為者的攻擊生態。

  • 社交工程強化

    • 傳統釣魚信件往往因語法錯誤或不自然語氣而被識破,如今 LLM 可生成 多語言、高擬真度的釣魚郵件,幾乎不含明顯錯誤。
    • 進階的詐騙攻擊(Business Email Compromise, BEC)已開始使用深偽語音(Deepfake Voice) 模仿高管聲音,誘騙財務部門匯款。
    • 在社交平台,AI 能同時管理數千個假帳號,模擬人類互動,提升騙局可信度。
  • 漏洞利用自動化

    • AI Agent 可被訓練來掃描網路資產,匹配 CVE 與已知弱點,並自動編寫 Exploit。這使得過去需要高技術門檻的漏洞攻擊,如今僅需中低階駭客即可執行。
    • 例如,過去發現零日漏洞需要數週至數月,如今 AI 能在數天甚至數小時內自動化挖掘並測試利用程式。
  • 惡意代碼生成與混淆

    • AI 能自動生成具隱匿性的惡意程式碼,例如勒索軟體加密模組、後門或 C2 通訊模組,AI也能協助混淆程式,使防毒引擎更難檢測。
    • 一些駭客論壇已出現 AI-as-a-Service 的新型服務,讓不具備技術背景的威脅者也能生成專屬惡意軟體。
  • 對抗式 AI 攻擊(Adversarial AI)

    • 攻擊者利用「對抗樣本(Adversarial Examples)」欺騙影像識別模型,讓監控系統誤判。
    • Prompt Injection 攻擊:透過輸入特殊指令,操控 LLM 泄露敏感資訊,甚至執行不安全操作。
    • 模型中毒(Model Poisoning):在 AI 訓練數據中注入惡意樣本,使模型在特定情境下產生偏差行為。
  1. 防禦者對 AI 的運用

防禦端也同樣加速導入 AI,試圖縮短與攻擊者的差距。但目前多數應用仍偏向輔助性質,而非全自動化。

  • 威脅偵測與分析

    • SOC 中導入 LLM 進行 日誌摘要與異常行為歸納,能快速過濾大量告警,降低誤報。
    • AI 可根據歷史攻擊模式,預測新型攻擊行為,例如內部 lateral movement(橫向移動)。
  • 漏洞與補丁管理

    • AI 協助優先排序漏洞修補,依據「利用可能性 + 系統影響」進行風險評估。
    • 針對短期難以修補的系統,AI 可生成「虛擬補丁」或建議臨時防護措施。
  • 自癒式安全(Self-Healing Security)
    • AI 能在雲端或容器環境中即時重建受感染節點,縮短平均回復時間(MTTR)。
    • 未來可能發展成「自主防禦體系」,不依賴人工介入,即能完成檢測、隔離與修復。
  1. 基礎設施的脆弱性

Trend Micro 指出,AI 基礎設施本身已成為主要攻擊目標:

  • 伺服器暴露:數千台 Redis、ChromaDB、Ollama 伺服器無認證暴露於公網。這些伺服器通常儲存模型權重或向量資料庫,一旦被入侵,後果等同於核心智慧資產洩漏。

  • 元件漏洞:在 Pwn2Own 競賽中,NVIDIA Container Toolkit 與 Triton 推理伺服器被多次成功利用,顯示 AI 開發生態系未建立嚴謹的安全流程。

  • 供應鏈依賴:AI 系統大量依賴開源框架與容器環境,任何一個組件若被污染,可能導致全球數千企業受害。

  1. 治理與落地挑戰

雖然已有 NIST CSF 2.0、ISO/IEC 27001、NERC CIP 等傳統治理框架,但報告強調:

  • 落地不足:企業雖宣稱符合 CSF,但在補丁管理、SOC AI 化、供應鏈透明度上,仍存在巨大落差。
  • 行業差異化需求:交通、能源、醫療等領域的 AI 風險特徵不同,需要專屬 Profile,而非套用通用框架。
  • 跨域挑戰:AI 威脅往往跨越 IT、OT 與雲端邊界,單一部門治理無法有效因應。

幻覺與供應鏈新威脅(Slopsquatting 攻擊)
  1. AI 幻覺(Hallucination)的定義與安全隱憂

所謂「AI 幻覺」,是指大型語言模型(LLMs)在生成內容時,輸出錯誤、虛構或不存在的資訊。傳統上,這被視為「準確率」或「模型品質」問題,例如生成虛構的參考文獻、錯誤的知識點。

然而,隨著 AI 被引入軟體開發與 DevOps 流程,幻覺問題已升級為 資安風險。如果開發者或自動化流水線無條件信任 LLM 生成的建議,這些「虛構資訊」可能直接導致惡意依賴或漏洞注入,進而影響整個供應鏈。

  1. Slopsquatting:幻覺導致的新型供應鏈攻擊

三所美國大學(德州大學聖安東尼奧分校、奧克拉荷馬大學、維吉尼亞理工)在最新研究中提出 Slopsquatting 這一新概念。它是傳統 Typosquatting(拼字相似依賴詐騙) 的延伸與變體,但威脅更隱蔽、規模更大。
攻擊路徑:
  • 攻擊者預先在套件倉庫(PyPI、npm)中上傳一個惡意套件。
  • LLM 在生成程式碼時產生「幻覺」──它推薦或引用了一個實際上不存在的套件名稱。
  • 攻擊者將惡意套件名稱與 AI 幻覺對應。
  • 開發者或自動化系統信任並安裝該套件,惡意程式碼即進入專案。
  • 任何依賴該套件的應用程式,都可能被污染,形成供應鏈感染。
這種模式與傳統依賴攻擊的差異在於:開發者並沒有「手誤」,而是 AI 主動「說錯」,且錯誤會被持續重複,導致大規模擴散。有研究針對 16 個流行的 LLMs(含商業模型與開源模型),進行了 Python 與 JavaScript 的測試,規模龐大:
  • 測試案例數:30 項(16 Python,14 JavaScript)。
  • 生成樣本數:共 576,000 個程式碼樣本。
  • 套件建議總量:2.23 百萬個套件名稱。
  • 幻覺套件數:440,445 個(佔 19.7%)。
  • 獨特幻覺套件:205,474 個。
根據研究發現,值得注意的是:
  • 商業 LLM 幻覺率為 5.2%。
  • 開源 LLM 幻覺率高達 21.7%。
  • 幻覺重複性:58% 的幻覺會在 10 次迭代內再次出現。
這代表幻覺不是隨機錯誤,而是模型內在結構的「偏差模式」,且極具持續性。
  1. 產業衝擊案例

  • 金融業:AI 幻覺推薦一個「快速加密庫」套件,實際上由攻擊者佈置。金融平台引入該依賴後,交易數據遭後門外洩。
  • 能源與製造:工業控制系統(ICS/SCADA)開發人員依賴 LLM 生成維護程式碼,幻覺套件被導入控制系統,導致攻擊者可操縱能源輸出。
  • 醫療領域:醫療 AI 模型使用幻覺推薦的影像處理依賴,攻擊者藉此竊取敏感患者影像,違反 HIPAA 與 GDPR。
  • 軟體開發 / DevOps:在 CI/CD 流程中,若引入幻覺依賴,整個應用程式鏈將被污染,甚至擴散至使用該應用的客戶。
  1. 防禦與治理對策

Slopsquatting 威脅揭示出 AI 輸出驗證 的必要性。建議包括:
  • 技術層防護
    • AI Output Security Gateway:攔截並驗證所有 AI 生成的套件推薦。
    • 白名單套件庫:企業內部建立可信套件清單,禁止安裝未知依賴。
    • SBOM 強制化:確保所有軟體組件可追溯,快速檢測可疑依賴。
  • 模型層改進
    • 引入 RAG(Retrieval Augmented Generation),限制模型輸出在已知可信套件範圍內。
    • 透過 Prompt Tuning、Self-Refinement,降低幻覺率。
    • 模型廠商應公開幻覺率指標,作為安全評估基準。
  • 治理層對應
    • NIST AI RMF:需新增「模型輸出安全」作為信任維度。
    • ISO/IEC 42001:在開發與測試階段納入幻覺風險評估。
    • EU AI Act:對高風險 AI 系統(醫療、能源)強制執行供應鏈檢測與第三方審查。

跨部門情資共享與治理模式
  1. 現況問題:情資孤島化

在大多數企業,威脅情資(Cyber Threat Intelligence, CTI)主要集中於資安團隊(SOC、IR Team),未能有效傳遞至其他部門,例如:

  • 法務部門:需要威脅情資來評估合規風險、法規責任。
  • 營運與業務部門:需判斷攻擊是否影響供應鏈或客戶交付。
  • 高層與董事會:需要以業務影響為核心的情資,而非技術數據。

結果是「情資孤島」:CTI 雖存在,但決策者缺乏對應資訊,導致 反應延遲、誤判風險增加。SecurityWeek 的報導點出,若 CTI 僅限於資安部門,其價值會被大幅削弱。

  1. 跨部門共享至關重要

  • 攻擊影響範圍廣:以勒索軟體為例,技術上是資料加密,但商業層面涉及 停產、營收損失、品牌信任度下降,甚至觸發 法規罰款。若情資未及時傳遞,可能錯失最佳談判與應變時機。
  • 合規壓力加大:法規如 GDPR、HIPAA、DORA 要求即時通報。若 CTI 僅停留在 SOC,可能導致延誤申報,帶來法律風險。
  • 策略決策需要全景資訊:CISO 或董事會需要的不僅是「攻擊 IP、漏洞 CVE」,而是「此次攻擊可能造成多少財務損失、是否需要啟動應急預算」。這意味著 CTI 必須轉譯成 業務語言 才能產生決策價值。
  1. 安全情資共享的挑戰

  • 語言鴻溝:技術情資(IOC、TTPs)難以直接被非技術部門理解,需要「翻譯層」將技術數據轉換為業務衝擊指標(Business Impact Indicators)。
  • 組織結構壁壘:資安部門與業務、法務往往屬於不同匯報線,缺乏協調機制。
  • 文化與信任不足:部分部門可能認為 CTI「與自己無關」,導致低配合度。高層若對資安價值缺乏認知,會忽視 CTI 的戰略意義。
  1. 建議的治理模式:Cyber Fusion Center

SecurityWeek 提出的觀點與業界趨勢一致,即推動 Cyber Fusion Center(網安融合中心) 模式。它的核心理念是:將 CTI、SOC、IR、法務、合規、營運、風險管理 整合於一個跨部門決策架構,不僅分享情資,更要共同解讀與行動。Cyber Fusion Center 的要素:

  • 跨部門參與:確保法務、營運、財務與資安部門都能獲取並解讀情資。
  • RACI 分工:R(Responsible)SOC/CTI:負責收集與分析情資;A(Accountable)高層:做最終決策;C(Consulted)法務、營運:提供合規與業務觀點;I(Informed)員工與合作夥伴:確保下游知情。
  • 流程制度化:建立情資流轉 SOP,避免 ad hoc 溝通。
  1. 產業案例

  • 金融業:在勒索攻擊事件中,CTI 必須即時與法務共享,以判斷是否涉及 GDPR/DORA 強制通報。同時需與財務共享,評估是否支付贖金、如何入帳損失。
  • 醫療機構:若 CTI 發現醫療系統漏洞被利用,需立即通知法務(HIPAA 法規風險)、醫務營運(手術中斷風險)與病患安全團隊。
  • 能源產業:ICS/OT 攻擊情資必須與營運部門共享,以判斷是否需緊急停機。若 CTI 僅停留在 SOC,可能延誤關鍵決策,造成更大損失。
  1. 情資共享的最佳實踐

  • 情資翻譯(Intelligence Translation):將技術指標(如 IOC、MITRE ATT&CK TTPs)轉換為業務語言(財務風險、合規風險)。
  • 共享平台化:建立跨部門的情資共享平台,確保透明度與可追蹤性。
  • 度量與績效:建立 KPI:如「跨部門情資採用率」、「演練中跨部門反應時間」,確保 CTI 被真正使用,而非只停留在報告層。

流量超越人類:AI 驅動的自動化攻擊

SecurityWeek 報導指出,2025 年上半年,全球網路流量中 惡意 Bot 已正式超越人類使用者流量,約佔比 52%~55%。這意味著網路的「主流居民」已不再是人,而是機器人。這些 Bot 並非單純的網路爬蟲,而是大量經過 AI 強化的自動化代理,具備更智慧的決策、模擬與欺騙能力,對企業安全與數位生態系統構成全新挑戰。

  1. 為何 AI Bot 能超越人類

  • 生成式 AI 降低了門檻:以往開發 Bot 需要程式技術,如今只需透過 LLM 或開源 AI 框架,即可快速生成 Bot 腳本。
  • AI 賦予 Bot 擬人化能力:AI Bot 不再是單純的「腳本請求」,而是能模仿人類互動,讓檢測難度倍增。
  • 規模與經濟效益:Bot 可 24/7 運作,速度遠超人工,且單位成本低。黑市已形成「Bot-as-a-Service」模式,攻擊者可租用現成 AI Botnet。
  1. 產業衝擊案例

  • 電商與零售

    • Scalping Bot 在數秒內搶光遊戲主機、演唱會門票,導致實際顧客無法購買。
    • 惡意 Bot 進行假下單、退貨詐騙,造成營收與庫存失真。
  • 金融業
    • Credential Stuffing Bot 對網銀平台發動攻擊,每日嘗試數百萬組帳密組合。
    • 假交易 Bot 影響股票與加密貨幣市場,放大波動性。
  • 內容平台
    • Content Scraping Bot 大量竊取內容,用於生成 AI 假新聞或詐騙網站。
    • Fake Engagement Bot 操縱輿論,散布政治或金融假資訊,影響選舉與市場決策。
  1. 防禦困境

  • CAPTCHA 已失效:傳統圖片辨識、選字挑戰已無法有效阻擋 AI Bot,因為 AI 能準確識別圖像與語意。
  • 流量模式模糊化:AI Bot 能模擬人類點擊與瀏覽行為,傳統的流量基準檢測難以分辨。
  • 成本不對等:攻擊者建 Bot 幾乎零成本,防禦方卻需投入高額流量清洗與檢測資源。
  1. 新一代防禦策略

  • 行為分析(User & Entity Behavior Analytics, UEBA):分析「行為連續性」,而非單一請求,例如:購物流程是否合理、登入後操作是否具人類習慣。
  • AI 驅動 Bot 偵測:對抗 AI Bot 必須以 AI 為基礎,透過模型學習識別微妙異常(如操作延遲曲線、裝置指紋)。
  • 零信任存取(Zero Trust Access):不再依賴邊界防護,而是對每次互動進行驗證與授權。例如:多因素驗證、風險型驗證(Risk-Based Authentication)。
  • 威脅情資共享:跨企業共享 Bot 攻擊特徵與流量樣本,形成聯防,避免單一企業「孤軍作戰」,降低防禦成本。

綜合分析:AI安全威脅的全景圖
  1. 威脅類別與層級化

經過前幾節的資料整理歸納,可以將 AI 帶來的資安威脅歸納為 四個層級:

  • 技術層(Technology Layer)
    • 基礎設施漏洞:Redis、ChromaDB、NVIDIA Triton 等 AI 元件曝險。
    • 幻覺輸出風險:LLM 生成不存在的套件(Slopsquatting),導致惡意依賴注入。
    • AI 對抗攻擊:Prompt Injection、模型中毒、對抗樣本。
  • 應用層(Application Layer)
    • 惡意 Bot 流量:AI 強化 Bot 流量超過人類,滲透電商、金融、社交平台。
    • 假內容與假資訊:AI 生成的 Deepfake 與假新聞加劇資訊戰。
  • 組織層(Organizational Layer)
    • 情資孤島:CTI 未能跨部門流通,導致反應延遲。
    • 合規壓力:GDPR、DORA、AI Act 對通報與透明度的要求愈加嚴苛。
  • 生態層(Ecosystem Layer)
    • 跨產業依賴:能源、金融、醫療、交通等互相連動,單一環節被攻擊即可引發連鎖反應。
    • 全球性 Botnet 與開源依賴污染:風險跨越國界,無法單靠一國或單一企業解決。
  1. 威脅特徵分析

  • 規模化(Scalability:攻擊者利用 AI 放大攻擊效率,如 Botnet 可在短時間觸達數億次請求。
  • 隱蔽性(Stealth):AI Bot 能模擬人類行為,Slopsquatting 依賴攻擊幾乎不可見。
  • 持續性(Persistence):AI 幻覺並非隨機錯誤,而是模型內在偏差,具有重複性與長期性。
  • 跨域性(Cross-Domain):威脅跨越 IT、OT、雲端、供應鏈,單一安全框架無法全面涵蓋。
  1. 各威脅間的交互作用

  • 基礎設施漏洞 × 幻覺供應鏈污染
    • 攻擊者既可入侵 AI 基礎設施伺服器,也可透過 LLM 幻覺將惡意套件導入開發鏈。
    • 結果是上下游同時受威脅:垂直突破(伺服器)+ 水平蔓延(依賴污染)。
  • AI Bot × 假內容生成
    • AI Bot 可自動化散布假資訊,放大社交工程效果。
    • 在金融市場,Bot 與 Deepfake 結合可操縱股價與投資人情緒。
  • 情資孤島 × 攻擊速度差距:當攻擊者能以 AI 提升滲透速度,而企業內部仍受制於情資孤島與決策延遲,攻防差距進一步擴大。
  1. 產業脆弱性比較

  • 金融業:面臨 Slopsquatting(惡意加密庫)、Bot 進行帳密填充、Deepfake 詐騙 的高風險。
  • 能源與製造:ICS/SCADA 系統 若遭 Slopsquatting 污染,可能導致整個工廠停擺。AI Bot 可模擬流量攻擊能源網路,造成供應中斷。
  • 醫療領域:患者資料若經由 AI 套件幻覺導入的惡意庫外洩,將面臨 GDPR/HIPAA 重罰,Deepfake 語音與影像甚至可用於醫療詐騙。
  • 政府與公共基礎設施:AI Bot 流量與假資訊可能直接衝擊選舉安全與公共信任。

治理框架與國際標準對應
  1. NIST AI RMF(AI Risk Management Framework)
  • 框架核心:NIST AI RMF 提出「可信 AI 七大特徵」:安全性、安全韌性、透明性、解釋性、隱私保護、公平性與問責性。目標是協助組織在 AI 系統的設計、開發、部署與使用過程中,建立風險管理流程。
  • 對應威脅
    • Slopsquatting 幻覺套件 → 對應「可靠性與安全性」:需加入 AI 輸出驗證控制,避免模型生成不存在套件。
    • 基礎設施暴露 → 對應「安全韌性」:應要求企業定期進行 AI 伺服器的配置與存取稽核。
    • AI Bot 流量 → 對應「安全性」:NIST RMF 強調 AI 系統需具備防濫用設計,建議將 Bot 偵測納入 AI 應用部署指引。
    • 跨部門情資孤島 → 對應「透明性與問責性」:RMF 要求組織建立清晰的責任鏈,確保威脅情資能跨部門共享。
  • 缺口:目前 NIST AI RMF 偏向高層原則,缺乏技術落地細節,例如如何監測模型幻覺率、如何量化 AI 對業務的安全風險。
  1. ISO/IEC 42001(AI 管理系統標準)
  • 框架核心:ISO/IEC 42001 是 2023 年發布的 AI 管理系統標準,定位類似 ISO/IEC 27001(資訊安全管理系統),強調 AI 的全生命周期治理:需求分析、模型訓練、測試、部署、監控與退役。
  • 對應威脅
    • Slopsquatting 幻覺套件 → 對應「開發與測試階段」:需要求在 DevOps 流程中納入輸出驗證與依賴稽核。
    • 基礎設施漏洞 → 對應「部署與監控階段」:強制要求 AI 基礎設施安全配置(如 API 認證、伺服器補丁)。
    • Bot 攻擊 → 對應「使用階段」:需監控 AI 系統的運作環境,偵測異常流量與自動化濫用。
    • 跨部門協作不足 → 對應「組織治理」:標準要求明確的責任分配與稽核流程,應將 CTI 情資共享納入治理範疇。
  • 缺口:ISO/IEC 42001 著重於管理制度,但技術指引不足,特別是模型安全測試、幻覺率驗證、供應鏈 SBOM 控制等。
  1. 歐盟 AI Act
  • 框架核心:AI Act 是全球首部針對 AI 的綜合法規,將 AI 系統分為四類:
    • 不可接受風險(禁止使用,如社會信用評分)。
    • 高風險系統(醫療、能源、金融、交通)。
    • 有限風險系統(需透明度,如 Chatbot 必須告知用戶其為 AI)。
    • 最小風險系統(自由使用)。
  • 對應威脅
    • Slopsquatting → 若發生在醫療、能源等高風險領域,AI Act 要求強制合規審查。
    • 基礎設施暴露 → 屬於高風險 AI 系統的安全漏洞,若未修補,可能違反法律。
    • Bot 與假內容 → 屬於有限風險系統,必須遵守透明度義務,並避免濫用。
    • 情資共享不足 → AI Act 強調責任鏈,但並未細化跨部門 CTI 的治理流程。
  • 缺口:AI Act 強調「風險分類」,但技術上對幻覺問題、AI Bot 生態風險尚無明確對策,這些將需透過後續指引與實務標準來補足。
  1. NIST CSF 2.0 與 CTI 結合
  • 框架核心:NIST CSF 2.0(網路安全框架)提出 Identify、Protect、Detect、Respond、Recover 五大功能。
  • 對應威脅:
    • Identify(識別):SBOM 盤點 AI 依賴庫,避免幻覺污染。
    • Protect(防護):部署 API 認證與 Bot 偵測機制。
    • Detect(偵測):SOC 導入 AI 偵測規則,識別 Prompt Injection 與異常流量。
    • Respond(回應):跨部門 CTI 情資共享,快速決策。
    • Recover(恢復):AI 自癒系統快速重建受感染節點。
  • 缺口:CSF 2.0 是通用框架,對 AI 特有威脅(幻覺、AI Bot、模型中毒)缺乏專屬 Profile,需要擴充。

AI 安全藍圖與建議
  1. 藍圖設計原則
在 AI 驅動的威脅環境下,安全藍圖需要兼顧三大原則:
  • 分層防禦(Defense in Depth):從基礎設施到 AI 模型輸出都需設防。
  • 動態調適(Adaptive Security):AI 攻擊具備快速演進特徵,防禦必須具備持續調整能力。
  • 跨域協作(Collaborative Governance):單一企業或部門無法抵禦 AI 威脅,需跨部門、跨產業、跨國合作。
  1. 短期措施:快速防護
  • 基礎設施強化
    • 關閉所有公網暴露的 Redis、ChromaDB、Ollama 等 AI 伺服器,全面導入 API 驗證。
    • 對 NVIDIA Triton、Container Toolkit 等核心元件進行漏洞掃描與快速修補。
  • AI 輸出驗證機制
    • 在 CI/CD 流程中加入 AI Output Security Gateway,攔截 LLM 生成的程式碼或套件建議,檢測是否存在幻覺依賴。
    • 導入 套件白名單機制,禁止安裝未知來源或未經驗證的依賴。
  • Bot 攻擊即時防護
    • 部署 AI 驅動的流量行為分析(UEBA),偵測模擬人類行為的 AI Bot。
    • 建立快速應變機制,防止電商、金融等平台被惡意 Bot 淹沒。
  • 跨部門情資共享啟動
    • 在組織內建立 CTI 共享流程,確保資安事件能即時傳遞至法務、營運與高層。
    • 建立事件回報 SOP,符合 GDPR、DORA 等即時通報要求。
  1. 中期措施:制度化與標準化
  • AI 專屬零信任架構
    • 在 AI 系統內導入「零信任」設計,包括身份驗證、動態授權、持續監控。
    • 每次模型 API 呼叫均需驗證,不再假設內部流量可信。
  • 模型測試與驗證中心
    • 成立企業級或行業級 AI 模型測試中心,持續測試模型的幻覺率與脆弱性。
    • 對於高風險 AI 系統(醫療、能源),要求第三方審核。
  • SBOM 與供應鏈治理
    • 將 軟體物料清單(SBOM) 強制納入 AI 系統開發流程,確保依賴可追溯。
    • 對套件來源進行風險評估,避免 Slopsquatting 成功植入。
  • Cyber Fusion Center 建立
    • 正式設立 網安融合中心,將 CTI、SOC、法務、合規、營運整合為一個跨部門決策機制。
    • 定期進行跨部門演練,提升組織韌性。
  • 產業合作與威脅情資共享
    • 與 ISAC(Information Sharing and Analysis Center)合作,分享 AI 威脅情資。
    • 建立跨產業 Bot 攻擊聯防機制。
  1. 長期措施:跨域治理與全球協作
  • 國際可信套件聯盟(Trusted Package Alliance)
    • 由產業、開源社群與政府合作,建立「可信開源套件登錄中心」。
    • 為所有 AI 相關套件提供數位簽章與安全驗證,降低 Slopsquatting 風險。
  • AI 對抗 AI 的防禦體系
    • 發展 AI 驅動的 主動防禦代理(Defender AI Agents),能與攻擊性 AI Bot 對抗。
    • 在 SOC 內建置 AI Red Team,自動模擬 Slopsquatting 與 Bot 攻擊場景。
  • 跨產業演練與標準化
    • 定期舉行「AI 安全跨域演練」,涵蓋金融、能源、醫療與政府機構。
    • 推動國際標準更新(NIST、ISO、AI Act),將 AI 幻覺、Bot 流量、供應鏈污染 納入強制要求。
  • 全球性 Bot 流量治理協作
    • 透過 ICANN、ITU 或跨國 CERT 協作,形成 全球惡意 Bot 流量黑名單。
    • 強化跨國流量管制,減少 Botnet 在不同國家間自由橫行。
  1. 藍圖落地指標(KPI)
為確保藍圖能落地,建議建立以下 量化指標:
  • 短期:AI 基礎設施曝險數量下降 90%、幻覺依賴阻擋率 > 95%。
  • 中期:所有 AI 系統具備 SBOM、跨部門 CTI 演練率達 80%。
  • 長期:可信套件使用率 > 95%、跨產業 AI 攻擊演練每年至少一次。

參考資料
  1. https://www.trendmicro.com/vinfo/us/security/news/threat-landscape/trend-micro-state-of-ai-security-report-1h-2025
  2. https://www.securityweek.com/ai-hallucinations-create-a-new-software-supply-chain-threat/
  3. https://www.securityweek.com/sharing-intelligence-beyond-cti-teams-across-wider-functions-and-departments/
  4. https://www.securityweek.com/bot-traffic-surpasses-humans-online-driven-by-ai-and-criminal-innovation/
本報告系統化整理 AI 安全威脅,涵蓋基礎設施漏洞、AI 幻覺供應鏈污染、AI Bot 生態失衡與跨部門情報共享,並結合 NIST、ISO、AI Act 等國際框架,提出短中長期防護藍圖。