打造負責任指南 Intel加入MLCommons AI安全性工作小組

記者/竹二

隨著人工智慧發展的演進,AI相關的隱私與安全性也越來越受到重視,Google微軟等科技巨頭紛紛在AI安全性上努力,Intel近日也宣布加入MLCommons AI安全性工作小組,將與產學界專家團隊合作建立人工智慧安全的標準,期望藉此打造負責任的人工智慧開發指南。

Intel近日宣布加入MLCommons AI安全性工作小組,將與產學界專家團隊合作建立人工智慧安全的標準。(圖/123RF)

Intel加入MLCommons AI安全性工作小組

MLCommons AI安全性工作小組由跨領域AI專家組成,旨在開發一個平台和測試池,以支援多種用途的AI安全性標準測試,將提供一個安全性評級系統,Intel作為創始成員之一。

更多新聞:Google公布生成式AI抓漏獎勵 計畫擴大標準曝光

Intel將協助創建一個靈活的人工智慧安全標準平台,隨著測試趨於成熟,人工智慧安全標準將成為社會看待人工智慧佈署與安全性的重要準則。Intel表示,他們希望負責任地推動人工智慧發展,讓每個人都能平等、安全的使用人工智慧,同時在硬體和軟體進行創新,推動生態系建立值得信賴的人工智慧。

AI安全性工作小組制定LLM安全標準

據了解,工作小組初期重點將以史丹佛大學基礎模型研究中心及語言模型全面評估(HELM)研究人員的成果為基礎,為LLM制定安全標準。Intel將與AIS工作小組分享內部用於開發人工智慧模型和工具時嚴謹且與跨領域審查的流程,協助建立一套通用的最佳實踐和標準。

此外,為了降低強大技術帶來的社會性風險,並負責任的訓練和布署大型自然語言模型與工具,工作小組也將提供一個安全性評級系統,用以評估新型、快速演變的人工智慧技術所帶來風險。

瀏覽 478 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button