關閉選單
五年—這是 Anthropic 儲存 Claude 聊天記錄的時間,除非您選擇退出

Anthropic,這家以AI模型Claude聞名的科技公司,近日做出了一項重大且具爭議性的政策變更。他們宣布將旗下產品對話紀錄的預設保留期限,從原本的30天大幅延長至五年(1,826天)。這項新政策適用於使用Claude的免費、專業與進階方案的個人用戶,但排除了商業、教育、政府客戶以及透過API介面使用的情況。此舉立即引起了各界對用戶資料隱私、數據安全以及未來AI模型訓練方向的廣泛討論與擔憂。


一、政策變更的具體內容與影響

根據Anthropic的聲明,這項政策的更新主要是為了更好地支持其AI模型的開發與安全改進。他們認為,更長的資料保留期限可以讓他們有足夠的時間來分析用戶互動,從而訓練出更安全、更實用、更符合人類價值觀的AI。然而,這項理由並未完全消除外界的疑慮。

具體而言,新政策將以以下方式實施:

  1. 預設延長: 對於新註冊用戶,五年的資料保留期將是預設選項。而現有的用戶,則會在下次開啟或恢復對話時,跳出提示視窗,詢問是否選擇加入「幫助改善Claude」的計畫。
  2. 例外情況: 儘管使用者可以選擇退出,但即便是選擇退出的用戶,其對話紀錄仍會被保留30天。此外,若有對話內容被標記為違反使用條款的內容(例如討論製造核武器等),則保留期限可能長達七年,以供進一步的審查和調查。
  3. 不適用對象: 這項新政策不影響透過AWS Bedrock或Google Cloud Vertex AI等平台使用Claude API的企業用戶。這些企業客戶的資料處理方式,仍將依據其與服務供應商簽訂的合約來進行。

這項政策變更引發的主要爭議,在於將資料保留期限從一個短暫的週期(30天)延長至一個漫長的週期(五年),這在根本上改變了用戶對其對話資料隱私性的預期。對於許多個人用戶來說,他們可能在不知不覺中,允許了自己的私人對話、想法、甚至是敏感資訊,在公司的伺服器上長期保存。


二、潛在的風險與疑慮

這項看似為「改善服務」的政策,實則隱藏著多重風險與疑慮:

  1. 資料外洩風險: 隨著資料儲存時間的延長,其暴露在駭客攻擊下的風險也隨之增加。駭客若能成功入侵Anthropic的伺服器,將能一次性竊取大量、長期的用戶對話數據,造成嚴重的隱私外洩。
  2. 用戶隱私權受損: 雖然公司聲稱這些資料將用於模型訓練,但用戶對話中可能包含極為私密、敏感的資訊,如健康狀況、財務數據、個人關係等。長期的資料保留,可能使這些個人隱私面臨潛在的法律和社會風險。
  3. 演算法偏見與偏差: 雖然公司聲稱資料將用於「安全改進」,但如果缺乏足夠的審查和去識別化,這些大量的對話數據也可能被用於訓練AI產生不當或帶有偏見的行為。
  4. 未來使用目的不確定性: 儘管Anthropic承諾這些資料將用於模型訓練和安全改進,但長達五年的保留期,使得這些數據的未來使用目的存在不確定性。未來政策是否會再次變更,或這些數據是否會被用於其他目的,用戶對此缺乏有效的控制。

三、企業與用戶的應對策略

面對這項新政策,企業與個人用戶都應採取適當的應對措施:

  1. 仔細閱讀隱私權條款: 所有用戶在同意任何服務條款前,都應仔細閱讀其隱私權政策。尤其是在新功能或彈出式視窗出現時,不要輕易點擊「同意」,應花時間了解其背後的資料處理行為。
  2. 行使退出權利: 已經在使用Claude的用戶,可以主動檢查帳戶設定,並選擇退出「幫助改善Claude」的計畫。雖然這無法完全避免資料保留,但至少可以將保留期限限制在30天。
  3. 選擇性使用: 儘量避免在與AI對話時輸入任何敏感或私密資訊。將AI工具主要用於處理公共、非個人化的任務。
  4. 企業應選擇API方案: 對於企業用戶,若需使用大型語言模型,應優先考慮透過API介面進行。這通常能讓企業對資料的處理和保留有更多的控制權,並能確保其資料符合內部資安規範。

總結來說,Anthropic的資料保留政策變更,是AI行業在快速發展中所面臨的一個重要挑戰。在追求技術進步的同時,如何在確保用戶隱私與數據安全之間取得平衡,將是所有AI公司都必須面對的關鍵議題。這起事件提醒了所有AI用戶:在享受便利的同時,務必保持對個人數據隱私的警惕。


資料來源:https://www.theregister.com/2025/08/28/anthropic_five_year_data_retention/
AI公司Anthropic近日宣布,將旗下Claude對話式AI的用戶對話資料預設保留期限,從原本的30天大幅延長至五年,引發各界對用戶隱私與資料安全的疑慮。