英偉達的研究表明,智能體人工智慧在攻擊下會失效2025.12.09人工智慧NVIDIA 和 Lakera AI 共同發布了一項全面的智能體 AI 安全與保障框架,旨在解決新型系統中模型、工具和資料互動產生的複雜風險。該框架引入了操作分類法、動態評估方法,並透過 AI-Q 研究助理進行案例研究,以支援業界實現大規模安全部署,同時釋出了超過一萬條攻擊與防禦運行軌蹟的資料集。
Gemini AI 中新的 GeminiJack 0-Click 漏洞使用戶面臨資料外洩風險2025.12.10人工智慧分析網路安全公司 Noma Security 發現的「GeminiJack」零點擊漏洞。該漏洞利用了 Google Gemini Enterprise 和 Vertex AI 搜尋工具中存在的「架構缺陷」,透過將隱藏指令嵌入共享文件或日曆邀請中,實現對企業數據的間接提示注入攻擊。報告詳述了攻擊者如何無需用戶點擊即可秘密竊取機密文件、郵件和日曆記錄,以及資料外洩如何偽裝成正常的網路流量,並強調了企業在 AI 時代審查數據連接源的重要性。
人工智慧正在加速網路攻擊,您的網路準備好了嗎?2025.12.12人工智慧剖析人工智慧如何以前所未有的速度和規模加速網路攻擊,闡釋安全營運中心(SOC)在零信任時代面臨的嚴峻挑戰,並深入探討網路偵測與回應(NDR)系統如何透過深度可見性和即時分析,成為抵禦新型態AI驅動威脅的關鍵防線。
Docker修復了「Ask Gordon」人工智慧漏洞,該漏洞曾導致基於元資料的攻擊2025.12.22人工智慧分析 Docker AI 助手 Ask Gordon 的嚴重安全漏洞。探討攻擊者如何利用元數據投毒與間接提示注入技術,竊取開發者的 API 金鑰、聊天記錄與建置日誌。解析 CFS 框架對 AI 攻擊成功率的影響,並詳述 Docker 4.50.0 版本中引入的人機互動(HITL)防禦機制。
2026年,駭客渴望人工智慧:Vibe Hacking和HackGPT的威脅情報2026.01.08人工智慧探討2026年網路犯罪者的核心轉向,解析「Vibe Hacking」新興行為學與「HackGPT」工具鏈如何降低犯罪門檻,分析AI如何從技術工具轉變為犯罪者的心理憑藉,並針對企業應對策略提供前瞻性建議。
ChatGPT的記憶體功能大大提升了即時注入速度2026.01.09人工智慧探討 Radware 揭露的 ZombieAgent 攻擊技術,分析 ChatGPT 長期記憶功能如何被惡意利用,使指令注入攻擊從暫時性轉變為持久性威脅。
駭客利用配置錯誤的代理存取付費的LLM服務2026.01.12人工智慧深入分析近期黑客鎖定配置錯誤之代理伺服器,進行大規模掃描與漏洞利用,藉此免費存取如 OpenAI、Anthropic 與 Google Gemini 等高價位付費大語言模型(LLM)服務的攻擊策略。