AI治理的未來|專家論點【張瑞雄】

作者:張瑞雄(前北商大校長、叡揚資訊顧問)

美國可說是在AI方面最先進的國家,因此美國如何來管制AI是一個很重要的問題。最近的美國國會對於管理AI並應探討其社會影響的迫切需求逐漸得到民意的認可,盡管在負責任的AI監督原則方面仍存在一些對立和矛盾。

在過去幾個月中,一個由美國參議院委員會主持的一系列閉門會議匯集了一百多名產業、研究、政府機構和公益團體的專家,討論各方的利害關係和所涉及的廣泛問題。討論主題除注重技術面,如生成模型的創新潛力和風險,也聚焦於迫切的社會影響,如演算法對經濟機會的障礙和執法技術應用所帶來的侵犯公民自由和隱私的問題。

跨領域的聲音的納入說明任何治理機制必須超越狹窄的技術層面,代表消費者福祉、族群正義和勞工權益等的組織的參與將對平衡AI的潛在利益和危險發揮作用。難得的是參議員們展現出令人驚訝的跨黨派合作和細緻的議題素養。

另外一封來自80多個公益組織的公開信呼籲將現實世界的危害作為AI責任政策和監督活動的基礎,並反對將討論集中在AI的假設未來潛力與風險之間的狹隘框架。這種狹窄的AI定義掩蓋了演算法目前引起的具體不良影響,特別是對歷史上被邊緣化的社群。該信凸顯了像有偏見的招聘演算法拒絕人們的工作機會和警方使用臉部識別導致錯誤逮捕(主要是對有色人種)等例子。其他重要的關切包括生成式AI對創意產業的威脅,大型語言模型的使用大量資源加劇氣候變化,以及大規模抓取互聯網數據去訓練模型所產生的隱私和言論侵犯等等。

這些最近的發展在多個方面都表明了AI治理辯論的重要趨勢,首先,具體的損害成為焦點,取代了以前主導的AI未來推測,將AI風險簡單地歸納為可控或不可控的基本框架式遠遠不夠的。

另一個趨勢是技術專業知識的主導地位正在被侵蝕,對社會和公平考慮的觀點逐漸被重視,即僅靠計算機科學家無法揭示AI監督必須解決的全部範圍。同樣地,那些遭受AI不公正待遇的人必須幫助來制定補救措施。

然而一些固執的分歧可能仍然存在,令人振奮的跨黨派合作雖然鼓舞人心,但如何調解相對立的意識形態,還有內容審查或執法技術監管等問題都是非常需要溝通。盡管在不同部門之間平衡地參與討論的努力反映了一些進展,但有利於大型科技公司的明顯權力差異可能會繼續扭曲政策優先事項,這是必須特別注意的。

最近的這些發展顯示政策制定者越來越理解AI在社會各群體以及在正義、權利、包容和人類尊嚴等價值方面的多方面影響,但訂出與技術的複雜度和規模相匹配的治理框架仍然是極具挑戰性。成功需要以公眾利益為中心,保持廣泛的包容性,尤其是過去在新科技中常常被排除或貶低的最受影響的社區和族群。

瀏覽 1,101 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button