「勒索氛圍」席捲 Visual Studio 擴展市場2025.11.10人工智慧揭露「ransomvibing」這一基於 vibe 編碼的AI勒索軟體如何作為惡意擴充功能滲透 Visual Studio Marketplace
思科發現開放權重人工智慧模型容易在長時間聊天中被利用2025.11.12人工智慧Cisco 發現開放權重 AI 模型在多輪對話攻擊中的漏洞,成功率高達 92.78%。報告強調這些模型難以維持安全護欄,易被利用於生成惡意程式碼和洩露敏感資訊,呼籲企業加強 AI 部署的防禦措施。
EchoGram缺陷繞過了主要LLM中的防護措施2025.11.18人工智慧探討AI安全公司HiddenLayer揭露的EchoGram漏洞,該漏洞利用簡單的詞彙或程式碼序列,成功繞過GPT-5.1、Claude和Gemini等主流大型語言模型的安全防護,對AI系統的信任與安全構成緊急威脅。
Cursor AI問題為憑證竊取攻擊鋪路2025.11.18人工智慧Knostic研究揭露Cursor AI輔助開發環境的嚴重漏洞,攻擊者可利用Model Context Protocol(MCP)伺服器繞過安全控制,執行JavaScript程式碼並竊取憑證,突顯AI輔助開發生態系統的固有不安全性和特權存取風險。
攻擊者如何利用耐心突破人工智慧的防護屏障2025.11.19人工智慧思科人工智慧防禦部門的一項新研究揭示,開放權重的大型語言模型在長時間的互動過程中穩定性會迅速降低。多輪攻擊的成功率遠高於單輪攻擊,凸顯了現有安全評估和保護機制的不足,企業必須對模型來源和安全調優策略有深入了解,並建議採用分層保護和持續評估來應對此類威脅。
Comet瀏覽器中隱藏MCP API破壞了使用者信任,使AI瀏覽器能完全控制裝置2025.11.20人工智慧SquareX研究揭示Comet AI瀏覽器中存在隱藏的MCP API,允許嵌入式擴充功能執行本機命令,獲取裝置完全控制權,嚴重違反了傳統瀏覽器安全規範。
一次簡單的AI檢查如何洩漏公司機密2025.11.24人工智慧分析了生成式AI在企業環境中缺乏治理所引發的知識產權外洩風險,強調員工將敏感資料提交至公開AI平台所導致的競爭優勢削弱和合規問題,並提供了健全的AI使用政策與教育建議。
WormGPT 4 與 KawaiiGPT:新型暗黑LLM推動網路犯罪自動化2025.11.26人工智慧根據Palo Alto Networks的分析,探討專為惡意目的設計的「暗黑LLM」(如WormGPT 4與KawaiiGPT)如何降低網路犯罪的技術門檻。