家人竟是資安破口?這7件事最怕被他人拿去問AI

記者鄧天心/綜合報導

大多數人都知道不要在電話、電子郵件或可疑網站上向詐騙者透露敏感資訊,但AI工具越來越普及,不少用戶在無意間向聊天機器人分享了個人資訊,AI工具並非設計用來儲存私人文件或銀行帳密等敏感資料。

使用AI(圖/AI生成)
身分證、密碼拜託別拿去問AI。(圖/AI生成)

更多科技工作請上科技專區:https://techplus.1111.com.tw/
科技社群討論區:https://pei.com.tw/feed/c/tech-plus

聊天機器人固然方便且能高效解決問題,但這並不代表所有內容都適合輸入對話框,分享特定類型的資訊會增加數據外洩、被濫用或以非預期方式儲存的風險,應該假定你輸入的任何內容都可能被他人看見,以下整理出不該與聊天機器人分享的7件事:

1.各種帳號密碼

無論是為了想出更強大的密碼組合,或是嘗試解決登入問題,都不應該將密碼貼給AI。處理這些情況有許多安全管道,完全不需要聊天機器人的協助。

2.財務詳細資訊

絕不能向AI透露信用卡卡號、銀行帳戶資訊、投資數據或任何與個人財務相關的內容。你可以向AI諮詢理財建議,再與專業理財顧問討論,但絕不能為了獲得答案而交出具體的財務數據。

3.身分證字號

AI公司在未經同意下分享用戶數據的事件層出不窮,絕對不應將身分證件號碼包含在任何AI提示詞(Prompt)中。

4.機密文件

將包含住址、帳號或其他個人識別資訊的文件上傳至AI進行分析是非常危險的行為,這些一旦進入模型訓練或儲存系統,便難以徹底抹除。

5.職場相關資訊

用戶常會衝動地讓AI摘要長篇電子郵件、PowerPoint簡報或同事提供的商業計畫書,然而,這樣做極可能違反公司資安政策,並導致公司內部交易或商業機密暴露在風險之中,代價極高。

6.醫療與保險文件

雖然參考Ada或Wysa等AI工具來諮詢身心症狀並與醫療人員討論是有益的,但直接上傳包含病歷、醫療保險細節或檢驗報告的文件則是絕對的禁忌(No-no)。

7.他人的隱私資訊

沒有必要因為使用聊天機器人而讓他人面臨數據外洩的風險,僅僅因為方便而將親友最私密的數據附加在提示詞中,進而破壞彼此的信任,這絕對不值得冒險。

雖然AI工具能提供各種創意想法與建議,但在互動過程中,保護自己始終是首要任務,代表必須將最珍貴的資訊留給自己,抑制將其貼上或夾帶至ChatGPT、Gemini或Perplexity等平台的衝動,聊天機器人不是私人日記,它們是數位助理,而非存放個人隱私的避風港。

延伸閱讀:

AI來搶你飯碗!10大職業快被取代「白領挫咧等」 這一行快不見了

資料來源:toms guide

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button