洩密危機!Google禁令 員工別碰生成式AI

記者/劉閔

就在韓國科技大廠三星(Samsung)發出嚴禁自家員工在公司電腦、平板與手機和內部網路使用生成式 AI 系統,違者恐被開除的禁令後不久後,就連開發出對話式 AI Bard 的 Google 員工也同樣收到規定,不得將公司內部機密資料與聊天機器人分享,而此舉似乎也證明了 AI 的確有洩漏資訊的風險,恐引爆企業資安疑慮。

Google 似乎也開始擔憂聊天機器人帶來洩密的風險,並警告員工包括自家開發的 Bard 也需禁用。(示意圖/123RF)

根據外媒引述知情人士的消息指出,在 ChatGPT、Bard 等 AI 聊天機器人可以「重現」出它在訓練期間所吸收到的數據,進而導致有些較敏感的資訊攤在陽光下,引發多家企業恐慌。包括微軟(Microsoft)、亞馬遜(Amazon)與沃爾瑪(Walmart)等巨擘都曾表示看過 ChatGPT 產生出來的答案非常近似於公司內部的數據,因此建議員工不應該再將機密資料「餵」給 AI 聊天機器人。

而近期 Google 對自家員工發出的警告格外引起外界的注意,主要是因為在規定員工不能使用聊天機器人的範疇也包含自家開發的 Bard,這樣的限制無非也讓在與 ChatGPT 競爭的同時帶來不少商業損失。

自從 ChatGPT 問世並帶起生成式聊天機器人的浪潮後,一切看似相當人性化的應用程式、並背後採用 AI 技術與用戶進行的對話方式,卻因為 AI 可能重現出訓練時吸收的資料而改觀。也讓世界各地出現禁用或是限制使用範圍的企業如骨牌效應般出現。

瀏覽 29,631 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button