中國DeepSeek被Anthropic抓到!用假帳號發動蒸餾攻擊

記者鄧天心/綜合報導

Anthropic表示,包含DeepSeek、Moonshot和MiniMax三家中國科技公司,透過模型蒸餾攻擊(distillation attacks)非法擷取技術,Anthropic指出,這些公司用2.4萬個假帳號與Claude進行了超過1600萬次對話,已經違反服務條款與地區存取限制,今年1月,OpenAI也曾指控DeepSeek做模型蒸餾攻擊,竊取技術。

駭客。(圖/AI生成)
Anthropic控DeepSeek設假帳號暗度陳倉。(圖/AI生成)

當時,許多人對此並未感到同情,反而大加嘲諷,因為OpenAI和其他AI公司也曾宣稱他們擁有絕對權利,可以在未經許可或未支付費用的情況下,使用受版權保護的作品來訓練自家的模型。通常,AI產業的支持者會辯稱他們別無選擇,只能使用受版權保護的作品進行訓練,因為中國的競爭對手無論如何都肯定會無視版權法。

美國總統Donald Trump在2025年7月的一場AI活動上曾表示:「當你閱讀或研究的每一篇文章、每一本書或任何東西都要付費時,你不可能期待能打造出成功的AI專案,當一個人閱讀一本書或一篇文章時,就獲得了豐富的知識。這並不代表你違反了版權法,或者必須與每位內容提供者達成協議。」他還補充說:「中國並沒有這樣做。」

更多科技工作請上科技專區:https://techplus.1111.com.tw/

什麼是模型蒸餾攻擊?

模型蒸餾是大型語言模型常見的訓練技術;然而,它也能被用來做逆向工程。在模型蒸餾過程中,AI研究人員會反覆輸入相同提示詞的各種變化版本,藉此觀察特定模型的反應方式。

Anthropic指出:「模型蒸餾是一種被廣泛使用且合法的訓練方法,例如,AI實驗室經常會對自家的模型蒸餾,藉此為客戶打造體積更小、成本更低的版本,但模型蒸餾也能被用於非法目的,競爭對手可以利用它,不用像獨立開發那麼花時間與成本,也可以取得一樣的成效。」為了防止這類攻擊再次發生,Anthropic呼籲AI公司、政府機構及其他利益相關者應展開合作。

延伸閱讀:

矽谷下一個AI熱門關鍵字!認識代理式AI助理「claws」

資料來源:mashable

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button