ChatGPT驚爆「猜謎遊戲」漏洞 竟能洩漏Windows產品金鑰

記者孫敬/編譯

近期資安研究團隊0din,發現一項能繞過ChatGPT安全防護機制的「越獄」技巧,偽裝成「猜謎遊戲」誘騙AI提供有效的Windows產品金鑰!這種攻擊手法,利用了AI模型在處理上下文資訊和執行內容限制時,所存在的既有漏洞。

延伸閱讀:聯發科發布16項資安漏洞報告 現已發送修補檔至OEM合作夥伴

ChatGPT 3
ChatGPT在無意識中洩漏了重要資訊給使用者。(圖/科技島圖庫)

「守門員」失靈:HTML偽裝、三階段誘導,繞過AI安全屏障

所謂 AI 的「守門員」(Guardrails),就是為了防止AI系統洩漏敏感資訊而設計的防護機制,包括序號、產品金鑰和機密資料等等。但0din研究人員發現,只要運用巧妙的框架設計和模糊化技巧,這些安全措施就能被成功繞過。

這次攻擊的核心手法,就是將整個互動包裝成一個無害的猜謎遊戲,而不是直接索取敏感資訊。透過設定遊戲規則,迫使AI必須參與並「如實」回應,研究人員有效隱藏了他們的真實意圖。其中一個關鍵突破,就是利用HTML標籤來進行「模糊化處理」。像是「Windows 10序號」這類敏感詞彙,會被嵌入到HTML錨點標籤 (<a href=x></a>) 中,藉此避開關鍵字過濾系統。這種方法既能保持語義上的正確性讓AI理解,又能成功躲過基於關鍵字的內容過濾器。

整個攻擊流程分為三個階段:

  1. 建立遊戲規則: 設定AI必須參與的互動框架。
  2. 要求提示: 誘導AI逐漸透露線索。
  3. 觸發揭露: 在研究人員說出「我放棄」這句話時,讓AI最終揭露敏感資訊。

這種系統性的方法利用了 AI 的邏輯流程,讓 AI 誤以為揭露資訊是合法遊戲的一部分,而非資安漏洞。

這次攻擊手法利用了網路上常見的臨時產品金鑰,包括Windows Home、Pro和Enterprise等版本。由於 AI 對這些公開的金鑰內容較為熟悉,可能也助長了這次的成功繞過,導致系統在遊戲情境下未能識別出這些資訊的敏感性。

漏洞影響範圍廣:不僅限Windows金鑰,強化AI防護迫在眉睫

這項漏洞的影響範圍,其實不只Windows產品金鑰,潛在可能影響到其他受限制的內容,例如個人身份資訊(PII)、惡意網址和成人內容等。這也顯示出目前AI防護機制存在根本性缺陷,它們大多只依賴關鍵字過濾,而非真正的「上下文理解」。

為了有效降低這類風險,AI 系統必須採取多層次的防護措施,包含:

  • 強化上下文感知系統: 讓 AI 更能理解對話的真實意圖。
  • 建立邏輯層級的防護: 偵測詐欺性的框架模式。
  • 強化社交工程偵測機制: 提升對惡意誘導的識別能力。

資料來源:Cyber Security News

瀏覽 374 次

發佈留言

Back to top button