微軟下一步:建立負責任人工智慧|專家論點【Howie Su】

作者:Howie Su(產業分析師)

安撫監管機構是微軟當前策略之一

微軟發布一份報告,詳細介紹負責任人工智慧的執行方向,這份長達40頁的人工智慧透明度報告指出該公司該為負責任地建立生成式人工智慧,使得技術的生態系產生正循環。在實際作為部分,公司推出30種用於開發負責任的人工智慧的工具,以及為其人工智慧客戶提供100多項功能,以協助安全地部署解決方案。

從數據面來看,微軟負責任的人工智慧社群聲量成長17%,目前擁有400多名成員,而公司所有員工都必須接受負責任的人工智慧培訓,作為公司年度行為標準培訓的一部分,當前99%的員工已完成相關訓練。微軟在下哪一步棋?

事實上,在 經歷這兩年生成式 AI的猛爆式成長,加上近期與Google、Meta進行大型語言模型的貼身肉搏後,微軟試圖透過安全性來緩和其速度,以降低監管機構,特別是歐盟國家的憂慮;微軟推出了一項計劃來協助培訓客戶部署符合監管的人工智慧應用程式,並承諾客戶使用其 Copilot 產品而面臨知識產權訴訟的公司支付相關法律費用。

另個案例是,2024年年初,微軟發布一系列人工智慧準則,說明公司對促進人工智慧領域競爭的決心,然而,若進一步觀察,這些原則是在與 OpenAI以及最近的法國人工智慧新創公司 Mistral的關係進行越來越多的反壟斷調查之後發布的。

微軟下一步:建立負責任人工智慧。(資料來源:Roland Burger)

另外,公司還做了哪些事?

為了支援外部安全檢查,微軟的報告引用今年稍早公開的內部安全測試工具PyRIT ,自在 GitHub 上發布以來,PyRIT已獲得1,100顆星,並被開發人員複製了200多次,用於他們自己的儲存資料庫中。此外,微軟也透過前瞻AI模型論壇進行合作,該論壇是一個安全人工智慧開發的機構,於去年 7 月與競爭對手Google和 Anthropic 成立,即便存在競爭關係,但讓社會大眾與執法機構安心可能是更重要的事情。

該公司在Azure AI Studio中發布一套生成式AI評估工具,客戶能在在其中建立自己的生成式AI模型,同時即時評估他們的模型的基本品質指標,包括基礎性,或模型產生的響應與它的來源材料。2024年3月,這些工具進一步強化,以解決安全風險,包括仇恨、暴力、性和自殘內容,防止大型語言模型提供可能露敏感資訊或傳播錯誤資訊。

更大的格局:歐盟AI法案的威脅

微軟或許也在為更大衝擊做準備:2024年3月,歐洲議會正式批准《歐盟人工智慧法案》,這是世界上主要司法管轄區通過的第一個全面的人工智慧立法,法案重點是保護安全和基本權利,它根據不同人工智慧應用的風險等級引入分級監管要求系統,被認為是高風險的系統將受到嚴格的保障措施,而那些被認為違反歐洲價值觀的系統將在很大程度上被禁止。

法案的衝擊包含:(1)合規費用影響人工智慧提供者和使用者,高風險人工智慧系統的部署者必須實施人工監督、監控並報告嚴重事件和故障,從而增加營運成本。(2)功能有限:更嚴格的規則可能需要停用或限制某些人工智慧功能以確保合規性,從而導致最終用戶的產品能力較差或個人化。

瀏覽 218 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button