歐盟建立人工智慧風險分級制  分別實施不同程度監管

編譯/施毓萱

雖然人工智慧為產業和客戶帶來了無數好處,但也促使監管機構質疑這種創新技術帶來的潛在風險,對歐盟執委會(EC)來說,為何和如何發展人工智慧所做的決策是首要考慮因素之一,自2021年以來EC一直在尋求制定新法規。

對歐盟執委會(EC)來說,為何和如何發展人工智慧所做的決策是首要考慮因素之一,自2021年以來EC一直在尋求制定新法規。(圖/123RF)

歐盟監管新出路

歐盟《人工智慧法》(AI Act)的核心是尋求實施一種橫向監管結構,能夠確保任何在歐盟市場的系統都是完全可信、安全且合法的,既適用於在歐盟境內營運的供應商,也適用於總部設在其他國家的第三方供應商。

更多新聞:AI諜對諜  限制人工智慧晶片以打擊國家間諜活動

因此EC採用了風險考量優先的方式,並將利用最新法規、以及按照經濟合作暨發展組織(OECD)的定義,確定一個系統對終端用戶帶來的風險分級法,包括不可接受的、 高風險、有限風險或低風險。

EC整合分割出不同監管等級

這些系統最終獲得的得分將決定受監管的等級,那些會帶來不可接受風險的系統將被EC禁止使用,黑名單包括遠端使用生物辨識技術的識別系統、透過認知操縱鼓勵危險行為以及可用於社會評級(social scoring)的系統。

根據法規草案,高風險系統將被允許使用,但需要遵守一系列新規則,這些規則涉及風險管理、資料訓練、透明度、網路安全和測試。

此外,對終端用戶構成有限風險的系統,其中包括聊天機器人和生物識別分類系統,現在必須在一套透明度義務下運行,而人工智慧生成的音訊、圖像和影片內容也將被標註為此類內容,讓用戶可以選擇是否繼續與該技術互動。

總之,EC透過監管人工智慧的方法建立網路,標誌其確實理解該技術廣泛而多樣的應用,這將廣泛影響金融和銀行業,因為銀行和金融服務公司必須確實遵守相關規定,走上人工智慧發展的新道路。

資料來源:FINTECH FUTURES

瀏覽 157 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button