Google捍衛AI安全 擴大漏洞獎勵計畫

編譯/Cynthia

Google宣布擴大其漏洞獎勵計畫(Vulnerability Rewards Programs,VRP),以因應人工智慧(AI)系統所面臨的威脅,主要在提升AI的安全性。這項措施也回應了生成式AI所帶來的新挑戰,如可能產生不公平的偏見、模型操作以及數據誤解等問題。

Google捍衛AI安全,擴大漏洞獎勵計畫。(圖/123RF)

AI的安全挑戰

儘管AI技術不斷進步,但同時也帶來了新的風險,特別是當今的AI系統,引發了許多新問題。Google的Laurie Richardson和Royal Hansen指出,這些問題包括可能的不公平偏見、模型操作,有時甚至會產生虛構的情況。

更多新聞:瀏覽器當機 Google Chrome緊急修復漏洞

多層次威脅

擴大的漏洞獎勵計畫將涵蓋多種威脅類別,包括提示注入、從訓練數據中洩漏敏感資料、模型操作、對抗擾動攻擊,以及模型竊取。這些都是AI系統可能面臨的多層次威脅,需要採取措施來因應。

AI安全框架的演進

Google不僅擴展漏洞獎勵計畫,今年七月還成立了一支AI紅隊。這支紅隊的目標是協助應對各種威脅,這項行動是其安全AI框架(Secure AI Framework,SAIF)的一部分,這個框架將有助於更好地保護AI系統的安全性。

加強AI供應鏈的保護

Google的承諾不僅限於漏洞獎勵計畫和AI紅隊,還包括透過現有的開源安全倡議來加強AI供應鏈的保護。這包括供應鏈安全框架(SLSA)和Sigstore等倡導的應用,這些都是確保AI安全的關鍵步驟。

數位簽章的重要性

數位簽章是確保軟體未被竄改或替換的重要工具,Sigstore提供了這樣的簽章,不僅有助於使用者驗證軟體的完整性,還能避免潛在的風險。此外,SLSA等元數據也扮演著關鍵角色,它們提供軟體內容和建構方式的資訊,有助於確保授權相容性、識別已知的漏洞,以及偵測更高階的威脅。

開創性的合作

Google不是唯一關心AI安全的公司,它與OpenAI、Anthropic和Microsoft一起宣布成立了一個價值1000萬美元(新台幣約3.24億元)的AI安全基金。這個基金將專注於促進AI安全領域的研究,為全球AI安全共同努力提供了重要支持。這些計畫共同展現了Google及其合作夥伴對AI安全的承諾,這將有助於保護我們日益依賴的AI系統免受威脅,確保其運行順暢且值得信賴。

資料來源:The Hacker News

瀏覽 351 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button