Claude AI API 可能被濫用以竊取數據2025.11.04人工智慧揭露 Anthropic 的 Claude AI 模型 API 存在被間接提示注入攻擊濫用的風險,可能導致使用者資料外洩,並強調網路存取權限帶來的安全挑戰與緩解措施。
PortGPT:研究人員如何教導人工智慧自動移植安全補丁2025.11.06人工智慧由中美加團隊開發的 PortGPT 是一個基於大型語言模型的 AI 系統,能自動將主分支的安全修補程式向後移植到舊版軟體,大幅減輕開源專案維護的繁瑣工作。
採取務實幹預措施來控制人工智慧自主性2025.11.07人工智慧探討智能體人工智慧(Agentic AI)在自主決策與跨系統協調中的風險、治理與防禦挑戰,提出五項務實的治理干預措施,協助企業與決策者在推動創新與確保安全之間取得平衡。
軟體開發團隊如何安全且合乎道德地部署人工智慧工具2025.11.07人工智慧軟體開發團隊提供了部署人工智慧工具的實踐藍圖,強調在追求創新速度的同時,必須透過強化治理、提升開發者技能和執行嚴格審查,來應對AI程式碼潛在的安全漏洞、法律風險和道德挑戰,確保問責制與產品品質。
首席資訊安全長 (CISO) 的人工智慧供應鏈攻擊專家指南2025.11.12人工智慧指南為 CISO 提供專家見解,解析 AI 惡意軟體的多態性、情境感知和隱藏特性,並提出一套新的防禦框架,包括 AI 專屬檢測、行為溯源分析和零信任運行時防禦,以應對日益嚴峻的威脅並符合 EU AI Act 等嚴格的監管要求。
尋找並移除類似 Otter.ai 的病毒式人工智慧筆記軟體2025.11.13人工智慧探討 Otter.ai、Fireflies.ai 等未經授權的AI筆記工具在企業中引發的資料外洩與影子IT(Shadow IT)問題
將零信任原則擴展到人工智慧代理:「永不信任,始終驗證」走向自主2025.11.13人工智慧企業在快速採用AI代理時,資安風險隨之擴大。了解如何將「永不信任,永遠驗證」的零信任原則,應用於動態、自主的AI身份,實施最小權限、動態監控及存取邊界,以確保AI基礎設施的安全與問責制。
HSCC發布2026年人工智慧網路安全指南預覽,重點介紹醫療機構的最佳實踐2025.11.14人工智慧分析HSCC的五大工作流與關鍵術語,聚焦於治理、安全設計及第三方風險管理,旨在為醫療產業提供2600字符的深度研究,促進AI負責任且安全的應用。