英國人工智慧監管將如何影響技術發展?|專家論點【Abby Lin】

英國想要什麼?

英國科學、創新和技術部 (DSIT) 於去年發布人工智慧白皮書,標示監管人工智慧的新方法,認為值得信賴的人工智慧工具對於負責任和安全地採用人工智慧至關重要,白皮書建議將這些工具分為兩類,以幫助遵守其建議的監管框架。

第一個領域涵蓋人工智慧保障技術,包括影響評估、稽核、效能測試和形式驗證方法,並可能有助於英國人工智慧保障產業的發展。這些技術將測量、評估和描述人工智慧整個生命週期的可信度。

第二個由人工智慧技術標準組成,這些標準為提供者之間提供了共同理解,並且在實現後證明符合框架原則。人工智慧技術標準將包括風險管理、透明度、偏見、安全性和穩健性方面的通用基準和實用指南,政府將與產業、國際合作夥伴、英國合作夥伴和英國人工智慧標準中心合作。

英國人工智慧監管將如何影響技術發展?(資料來源/GOV.UK)

英國監管人工智慧的五項原則是什麼?

在其白皮書中,英國政府將重點放在政府認為應該管理人工智慧的五項原則,以促進負責任地開發和使用該技術。這五項原則的適用最初將由監理機關酌情決定,隨後可能會承擔要求監理機關適當考慮這些原則的法定義務。

一、安全、保障和穩健

人工智慧應用程式應該安全、可靠和穩健,並仔細管理風險。根據這項原則,監管機構可以採取措施確保人工智慧在其整個生命週期中的安全;評估人工智慧帶來風險的可能性,以採取相應措施來管理這些風險;並定期測試人工智慧系統的功能、彈性和安全性,以創建未來的基準。

二、適當的透明度和可解釋性

人工智慧創新者和企業必須保持適當的透明度,並能夠解釋其人工智慧的決策過程和風險。適當水平的透明度和可解釋性被定義為“監管機構擁有有關人工智慧系統及其相關輸入和輸出的足夠信息,以便對其他原則產生有意義的影響。”監管機構可能會將產品標籤和技術標準視為收集此資訊的選項。監管機構還需要澄清特定人工智慧技術適當且可實現的可解釋性水準。

三、公平性

人工智慧應該是公平的,不得歧視個人或商業結果,不得損害其合法權益。監管機構可能需要使用相關法律(例如《2010 年平等法》、《1998 年人權法》、《公共部門平等義務》、《英國通用資料保護條例》、《資料保護法》)制定並發布適用於其監管領域內人工智慧系統的公平性描述2018 年,消費者和競爭法以及特定行業的公平要求。

四、問責和治理

管理人工智慧的監管措施需要充分讓人工智慧生命週期中的適當參與者對人工智慧結果負責。監管機構必須確保對監管合規性有明確的期望,並且可能需要使用治理程序來鼓勵合規性。DSIT 承認,目前尚不清楚人工智慧產品生命週期中誰應該承擔責任,因此不建議在現階段進行幹預。相反,DSIT 將召集專家、技術人員和律師考慮未來適當的干預措施。

五、可調整性

用戶和其他利益相關者需要明確的途徑來對人工智慧造成的任何損害提出爭議。政府希望監管機構明確現有途徑,鼓勵和指導受監管實體,以確保受影響各方能夠透過非正式或正式管道明確質疑人工智慧的有害結果。

瀏覽 195 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button