AI聊天上傳有風險!史丹佛專家警告個人照片恐遭永久外流、深偽濫用
記者鄧天心/綜合報導
隨著ChatGPT等AI聊天機器人陸續開放「上傳圖片」功能,許多人開始把照片或各種個人資訊丟進AI。但史丹佛大學人本人工智慧研究所(Stanford HAI)研究員Jennifer King提出警告,一旦照片傳上去,其實等同失去控制權,她提醒,照片裡除了人臉,還可能藏著定位資訊、住家環境、甚至生活細節,而這些數據在AI運算和服務過程中,都有可能外洩,甚至被利用於深偽(Deepfake)等不法用途。

延伸閱讀:
美國法院裁定Google可繼續保住預設搜尋 但要向蘋果、三星支付鉅款
OpenAI執行長Sam Altman近期公開承認,雖然ChatGPT平台設有「自動刪除聊天紀錄」的機制,但這並不代表用戶資料就能百分之百安全,他坦言,根據不同國家的法律,用戶內容仍可能被政府或法院調閱,系統在運作過程中,也可能因漏洞,讓資料短暫暴露在外部環境,甚至被第三方取得,Altman特別提醒,用戶千萬別誤以為跟ChatGPT的互動是絕對隱私,這些對話不僅沒有法律上的保密保障,甚至有可能在未來成為司法證據。
根據史丹佛大學研究員Jennifer King的進一步分析,多數使用者過於信任AI平台的保障,卻忽視了AI資料「生命週期」冗長、傳輸與備份過程複雜,一旦資訊上傳,很難真正被「徹底刪除」。尤其涉及醫療、財務、住家環境等高敏感資料,或兒童、青少年的個人影像,更是高風險區域,需要格外謹慎。她建議,用戶在使用AI之前,應先仔細閱讀隱私條款、取得相關人同意,不要隨意把未經審查的影像或資訊交給機器人。
事實上,AI的隱私漏洞已經浮上檯面。過去ChatGPT的「分享對話」功能,就曾導致數百筆使用者內容被Google索引公開。為了降低風險,像三星這樣的大型企業甚至直接禁止員工使用AI聊天機器人處理機密資料。資安專家與AI公司也幾乎達成共識:與ChatGPT等AI的互動,不應預設為完全私密,更不能天真地相信「刪除記錄」就能高枕無憂。
資料來源:reddit