專家警告 GPT-4o潛在風險與安全挑戰不可不慎

編譯/Cynthia

2024年,OpenAI推出最新的聊天機器人GPT-4o,這款工具有即時處理音訊、圖像和文字的功能,OpenAI的開發負責人Romain Huet強調,相較於之前的GPT-4,GPT-4o是一個重大的進步,能夠在多種媒體間進行處理資訊。

OpenAI推出最新的GPT-4o 聊天機器人。圖取自 OpenAI官網

新工具帶來的安全挑戰

儘管GPT-4o 擁有許多吸引人的新功能,網路安全專家建議不要對其在網路安全領域的影響抱有過高期望。Contrast Security的技術長Jeff Williams 指出,GPT-4o可能會產生不存在的漏洞,忽略真正的威脅,這樣的錯誤訊息可能會降低用戶對該工具的信任。他強調,網路安全領域最大的挑戰是缺乏對技術和流程的透明度,而不僅是依賴新工具來解決問題。

更多新聞:GPT 代表什麼? GPT-4o、GPT 4 Turbo、GPT 3.5 第一次上手就懂

GPT-4o多功能應用的風險

GPT-4o的多任務處理能力使駭客能夠更有效率地進行攻擊。例如,其語音克隆功能可生成更真實的深偽技術,混合音訊和視訊,增加詐騙的難度。機器學習研究科學家Daniel Kang警告,此功能可能用於詐欺或冒充身份,對銀行身份驗證構成威脅。新功能的出現引發了安全隱患,專家擔心駭客會利用語音克隆製造虛假信息進行勒索,甚至虛擬綁架。

GPT-4o安全與隱私挑戰

OpenAI表示已經為GPT-4o加入多項安全和隱私保護措施,包括最小化數據收集、更有效的數據匿名化、強化加密協議,以及提高數據使用和共享的透明度。然而,使用者仍無法確認其訓練數據或操作方式,這意味著駭客可能試圖操縱或破解此工具。

建立AI工具安全共享責任模式

企業與AI工具供應商應建立共享責任模式,且需重視使用正確的政策、程序和技術來保護其資產。這包括限制員工使用生成式AI工具的方式,確保符合既定的安全政策,並透過強有力的合約管理第三方風險。Bedrock Security供應鏈安全公司執行長Pranava Adduri建議,企業應該遵循基本的數據保護原則,以保護重要、敏感或受監管的數據,並確保其在流通和存儲過程中的安全性。

資料來源:BankInfoSecurity

瀏覽 762 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button