AI 助手的便利與安全邊界之崩塌
人工智慧助理旨在讓生活更輕鬆,但一項新發現表明,即使是簡單的會議邀請也可能變成特洛伊木馬。Miggo Security 的研究人員發現,Google Gemini 與 Google 日曆的互動方式有一個可怕的漏洞:攻擊者可以發送看似正常的邀請,悄悄誘騙人工智慧竊取您的私人資料。Gemini 的設計初衷是透過讀取你的日程安排來提供幫助,而這正是 Miggo Security 的研究人員所利用的漏洞。他們發現,由於這款人工智慧是透過語言而非程式碼進行推理的,因此它很容易被隱藏在顯眼位置的指令所操控。這項研究成果已分享給 Hackread.com,旨在揭示此類漏洞的易發性。
這種威脅的核心在於「信任邊界」的模糊。當使用者授權 AI 讀取個人日曆以提升生產力時,AI 同時也獲得了讀取來自外部未經驗證來源(如他人發送的會議邀請)的權限。這種權限對等性,使得外部輸入與內部指令在 AI 的邏輯層面發生了混淆,進而導致嚴重的安全後果。
攻擊是如何發生的
根據 Miggo Security 的部落格文章,研究人員並未使用惡意軟體或可疑鏈接,而是利用間接提示注入技術發起了此次攻擊。攻擊者會向您發送會議邀請,並在邀請的描述欄位(通常顯示議程的部分)中隱藏一條命令,該命令指示 Gemini 匯總您其他的私人會議,並建立一個新事件來儲存該匯總資訊。
可怕的是,你甚至無需點擊任何東西,攻擊就會開始。它會靜靜等待,直到你向 Gemini 提出一個看似平常的問題,例如「我週末有空嗎?」。為了“提供幫助”,Gemini 會在查看你的日程安排時讀取這條惡意邀請。然後,它會按照隱藏的指令,使用一個名為「Calendar.create 建立新會議」的工具,將你的私人資料直接貼到會議中。研究人員表示,最危險的地方在於它看起來完全正常。Gemini 會告訴你“這是一個空閒時間段”,同時卻在後台悄悄洩露你的訊息。研究團隊指出,“漏洞不再局限於程式碼”,並解釋說,人工智慧本身的“助手”屬性才是它脆弱的原因。

攻擊鏈(來源:Miggo Security)
間接提示注入與大型語言模型的本質缺陷
此次漏洞的技術關鍵在於「間接提示注入」(Indirect Prompt Injection)。傳統的網路攻擊多依賴於惡意腳本或二進位文件,而針對 LLM(大型語言模型)的攻擊則直接操縱「語義」。當 Gemini 掃描日曆描述時,它無法有效區分這段文字是「應顯示給使用者看的資訊」還是「應執行的操作指令」。這種混淆源於 AI 系統將外部數據(Data)當作程式碼(Code)執行的經典問題,只是在 AI 時代,這種「程式碼」變成了自然語言。
當 Gemini 呼叫 Google 日曆的 API(如 Calendar.create)時,它是在執行其核心功能。然而,觸發該功能的邏輯並非來自用戶的真實意圖,而是來自潛藏在日曆描述中的惡意指令。這種攻擊形式繞過了幾乎所有傳統的防火牆與端點安全解決方案,因為對系統而言,這僅僅是 AI 在執行其被賦予的正常任務。
這並非雙子座第一次遭遇這種情況
值得注意的是,這並非谷歌首次面臨語言問題。早在 2025 年 12 月,Noma Security 就發現了一個名為 GeminiJack 的漏洞,該漏洞利用文件和電子郵件中的隱藏命令窺探企業機密,且不留下任何警告信號,先前的這個漏洞被描述為企業人工智慧系統理解資訊方式上的「架構缺陷」。
接二連三的安全性事件顯示,這並非單一的功能錯誤(Bug),而是當前生成式 AI 整合生態系統中的普遍性弱點。當 AI 被允許存取、讀取並操作用戶的電子郵件、雲端硬碟、日曆等高度隱私工具時,每一封信件、每一份共享文件都可能成為攻擊載體。如果 AI 無法建立起一道嚴格的邏輯防火牆來區分「用戶指令」與「外部數據」,則任何整合了 AI 的辦公套件都將面臨類似的風險。
AI 生態鏈中的安全修補與長遠挑戰
雖然 Google 已經修復了 Miggo Security 發現的特定漏洞,但更大的問題仍然存在。傳統的安全措施著重於惡意程式碼,而這些新型攻擊僅僅利用了惡意語言。只要我們的 AI 助理被訓練成如此“樂於助人”,駭客就會不斷尋找利用這種“樂於助人”特性來攻擊我們的方法。
從企業治理與資訊安全的角度來看,這項發現敲響了警鐘。企業在導入 AI 應用程式時,必須意識到「語言注入」是一種真實且難以防範的威脅。單純依靠供應商的修補程式是不夠的,必須從權限管理層面進行限縮。例如,AI 助理在執行「建立新會議」或「對外傳輸數據」等敏感操作時,是否應強制加入人工確認環節?當 AI 讀取到包含潛在指令特徵的文字時,是否應有過濾機制?
總結與未來展望
Google Gemini 的日曆漏洞不僅是一個技術瑕疵,它象徵著人機互動新時代的安全轉向。我們正處於一個「語言即代碼」的轉型期,攻擊者的手段已從技術層面提升至心理與語義層面。對於開發者而言,如何在保持 AI 助手的靈活性與有用性的同時,建立一套能夠防禦惡意提示的防護機制,將是未來數年最重要的課題。
對於一般使用者與企業客戶,保持對 AI 工具的警覺心至關重要。在 AI 能夠完全分辨意圖來源的真偽之前,授予其過大的自動化執行權限無異於開門揖盜。我們必須理解,當 AI 致力於讓我們的工作更流暢時,它也可能在不經意間,將我們最私密的資訊交給了隱藏在自然語言背後的狩獵者。未來 AI 安全的發展,不能僅依賴事後修補,而需要從根本上重新定義 AI 對於「指令」與「數據」的處理邊界。
資料來源:https://hackread.com/google-gemini-ai-calendar-data-leak-meeting-invite/
分析 Miggo Security 發現的 Google Gemini 與日曆互動漏洞,攻擊者利用間接提示注入技術,透過看似無害的會議邀請描述,誘導 AI 竊取用戶私人行程資料。