AI聊天上傳有風險!史丹佛專家警告個人照片恐遭永久外流、深偽濫用

記者鄧天心/綜合報導

隨著ChatGPT等AI聊天機器人陸續開放「上傳圖片」功能,許多人開始把照片或各種個人資訊丟進AI。但史丹佛大學人本人工智慧研究所(Stanford HAI)研究員Jennifer King提出警告,一旦照片傳上去,其實等同失去控制權,她提醒,照片裡除了人臉,還可能藏著定位資訊、住家環境、甚至生活細節,而這些數據在AI運算和服務過程中,都有可能外洩,甚至被利用於深偽(Deepfake)等不法用途。

1756950416999
美國史丹佛大學人本人工智慧研究所(Stanford HAI)研究員Jennifer King公開警告,當用戶將照片等個人資訊上傳給ChatGPT時,事實上等同於失去了對這些內容的全部控制權。(圖/OpenAI YouTube)

延伸閱讀:

美國法院裁定Google可繼續保住預設搜尋 但要向蘋果、三星支付鉅款

OpenAI執行長Sam Altman近期公開承認,雖然ChatGPT平台設有「自動刪除聊天紀錄」的機制,但這並不代表用戶資料就能百分之百安全,他坦言,根據不同國家的法律,用戶內容仍可能被政府或法院調閱,系統在運作過程中,也可能因漏洞,讓資料短暫暴露在外部環境,甚至被第三方取得,Altman特別提醒,用戶千萬別誤以為跟ChatGPT的互動是絕對隱私,這些對話不僅沒有法律上的保密保障,甚至有可能在未來成為司法證據。

根據史丹佛大學研究員Jennifer King的進一步分析,多數使用者過於信任AI平台的保障,卻忽視了AI資料「生命週期」冗長、傳輸與備份過程複雜,一旦資訊上傳,很難真正被「徹底刪除」。尤其涉及醫療、財務、住家環境等高敏感資料,或兒童、青少年的個人影像,更是高風險區域,需要格外謹慎。她建議,用戶在使用AI之前,應先仔細閱讀隱私條款、取得相關人同意,不要隨意把未經審查的影像或資訊交給機器人。

事實上,AI的隱私漏洞已經浮上檯面。過去ChatGPT的「分享對話」功能,就曾導致數百筆使用者內容被Google索引公開。為了降低風險,像三星這樣的大型企業甚至直接禁止員工使用AI聊天機器人處理機密資料。資安專家與AI公司也幾乎達成共識:與ChatGPT等AI的互動,不應預設為完全私密,更不能天真地相信「刪除記錄」就能高枕無憂。

資料來源:reddit

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button