避免憾事重演 三星祭AI禁令要員工自律

記者/劉閔

生成式 AI 應用已經快速成長,雖然成功幫助開發者、企業或政府創造更多可能,但不可諱言的在保護數據與隱私部分顯得格外薄弱,使得很多企業明文禁止使用。日前南韓三星電子(Samsung Electronics)就透過內部信件表示,由於發現旗下員工將敏感程式碼上傳至生成式 AI 平台,恐導致機密外洩,因此宣布禁止使用相關工具,否則將面臨解僱命運。

基於資訊安全考量,三星發信要求員工禁止使用 AI 工具,違者可能遭受解僱 。(圖片翻攝自 Samsung)

根據外媒報導,由三星內部一名員工證實此信件確實存在,並指出公司是向所有員工寄發。該備忘錄內容明確表示使用包括 ChatGPT 或 Google 的 Bard 等 AI 工具時,若將具商業機密的數據外流,由於其資料會儲存在外部伺服器,導致收回或刪除非常困難,並且可能被其他用戶取得,因此祭出禁令。

在此之前三星集團曾對內部員工進行一項關於使用 AI 工具的問卷調查,發現約有 6 成 5 的員工認為生成式 AI 工具的確會對公司安全構成威脅。而 4 月初就發生 3 名工程師將內部程式碼上傳至 ChatGPT,造成機密洩露與公司損失。

這次三星的禁令只針對公司提供的資訊設備,包括電腦、手機或平板等,但對於私人擁有的裝置不在此限。不過一旦發生機密外流,嚴重將可能遭到解僱。

不過三星也了解生成式 AI 的確能夠幫助提升產能與效率,因此目前正在建立自家內部使用的 AI 工具。但在安全環境建置完成之前,這項禁令將持續貫徹執行。

※更多ChatGPT相關訊息,請參考【生成式AI創新學院

瀏覽 590 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button