資安專家警告ChatGPT太好用 資料外洩新破口
編譯/鄭智懷
自2022年11月推出以來,ChatGPT一夕爆紅並吸引大量用戶。隨著越來越多民眾與公司使用該服務,部分專家與組織開始擔憂這項新技術可能導致數據外流的問題。美國資安業者Cyberhaven發現,雖然阻止員工在工作中使用ChatGPT的公司日益增加,但是透過該技術洩密的案例並未因此減少,反而呈現飛速成長的趨勢。
Cyberhaven分析各行業的160萬名員工對ChatGPT的使用狀況發現, 5.6%的人表示在工作地點曾運用過該技術;4.9%的人曾將公司資料上傳;2.3%的人則上傳過機密資料。值得注意的是,由ChatGPT洩露公司機密資料的案例之中,有八成是由0.9%的人所外流。
該研究進一步指出,員工認為使用ChatGPT可以有效增進其工作效率,因此大量將該技術產出的文字、程式碼等檔案運用在公司內部的行政文件、程式編輯等工作上。統計資料顯示,員工從ChatGPT複製資料的次數與上傳公司資料至該技術的比例為二比一。
而在洩露機密資料的統計上,報告發現在短短一周內(2月26日至3月 4日),每十萬名員工平均向ChatGPT上傳199 次機密文件、173 次客戶數據和 159 次原始程式碼。
最麻煩的地方在於,目前市面上流通的企業安全軟體並無法發現員工是否在工作中使用ChatGPT。換言之,公司並無法徹底禁絕員工利用該技術協助工作,以及防止機密資料因此外流。
專家警告,ChatGPT「作為一種大型語言模型」,本身「並不具備儲存或獲取公司或個人數據的能力」。然而,鑒於其具有優秀的學習能力,上傳公司機密資料的動作可能會導致在為察覺的情況下,與不明第三方共享該資料內容。因此,用戶必須審慎評估在ChatGPT等人工智慧聊天機器人分享的資料類型與內容是否合適。
資料來源:Security Affairs
瀏覽 1,195 次