Anthropic推新規「聊天記錄」預設拿來訓練AI 你想退出隨時都行
記者鄧天心/綜合報導
Anthropic公司近日宣布,將開始用Claude用戶的聊天記錄和程式碼內容來訓練AI模型,用戶需在9月28日前決定是否同意資料被用於此用途。
根據Anthropic發布的最新公告,這項政策更新適用於所有使用Claude免費版(Free)、專業版(Pro)和旗艦版(Max)的個人用戶。該公司表示,數據將有助於提升模型的安全性和實用性,例如更精準地偵測詐騙、濫用等有害內容,並提升編碼、分析和推理等能力。
然而,這項更新不適用於商業服務,包括Claude for Work、Claude Gov、Claude for Education以及透過Amazon Bedrock和Google Cloud Vertex AI等第三方平台使用的API客戶,這些企業用戶的數據隱私保護維持不變。

延伸閱讀:
史丹佛研究:這3個職業最受到AI影響 年輕人就業率下降13%
與過去不同,新的政策採用「預設同意,用戶需主動退出」的模式,現有用戶將會看到一個彈出式視窗,提示他們接受新條款,在該視窗中,允許數據用於訓練的選項是預設開啟的,用戶必須手動關閉該選項,才能拒絕數據被用於AI訓練。
新用戶則可在註冊過程中設定其偏好。如果用戶不小心同意了,仍可以隨時進入「設定」中的「隱私」頁面更改選項。
此次更新中最引人關注的一點是數據保留政策的改變。對於同意參與AI訓練的用戶,其對話和編碼紀錄的保留期限將從過去的30天延長至最高五年。對於選擇不參與的用戶,數據保留政策則維持30天不變。
資料來源:The Verge、TechCrunch