消除AI的偏見|專家論點【張瑞雄】
作者:張瑞雄(前北商大校長,叡揚資訊數位轉型大使、中華和平發展智庫執行長)
試驗一個AI繪圖軟體,叫它畫一個公司的執行長,出來的都是男性,叫它畫一位大學校長,出來有四分之三是男性,叫它畫一個小學老師,出來四位都是女的。這些結果當然不令人意外,畢竟AI只是根據它所被訓練的資料來依樣畫葫蘆,如果我們餵給它的資料就是這樣,我們可以怪AI嗎?
這些既成的印象和偏見問題比我們想像的還要深入到AI創造的廣闊的世界,大部分的AI模型是由美國公司建立並利用北美數據去訓練的,因此當它們被要求生成文章或圖片,甚至是一些平凡的日常物品,從房屋到日用品,它們創造出來的物品看起來都像是具有美國的風格的。
隨著世界越來越多地充滿了AI生成的圖像,我們將會看到很多反映美國偏見、文化和價值觀的圖像,誰知道AI最終會成為美國軟實力的一項重要工具?那麼我們如何解決這些問題?已經有很多工作投入到修正AI模型訓練中所用數據集裡面的偏見,但要如何做呢?
如果你可以簡單地要求模型給你較少偏見的答案,而不是讓訓練數據變得更少偏見,這樣可行嗎?德國一所大學和一家AI新創公司合作開發了一種名為Fair Diffusion(相對於Stable Diffusion,一個AI圖片生成系統)的工具,可以更容易地調整AI模型以生成你想要的圖像類型。例如,您可以生成不同場景下的CEO照片,然後使用Fair Diffusion將圖像中的白人男子換成女性或不同種族的人。
這種方法讓人們可以建立他們想要的圖像,而不必進行繁瑣且耗時的嘗試改善用於訓練AI模型的偏見數據集的工作,然而這個工具並不完美,更改某些職業圖像的效果不佳該工具也僅適用於兩種性別。所以模型能夠生成的人物多樣性仍然受到原先AI系統訓練數據中原始圖像的限制,不過這個工具可能是減少偏見的重要一步。
類似的技術似乎也適用於ChatGPT之類的大型語言模型,簡單的對話和指示可以引導大型語言模型產生較少有毒的內容,如果語言模型足夠大,它們在被要求後通常會自我修正一些偏見。
人類偏見存在各方面,人類所產生的資料就會隱含這些偏見,根據這些資料訓練出來的AI當然就會具有這些偏見,所以偏見無法通過巧妙的工程技術來解決。另外除了數據和演算法,我們需要調查人類如何使用AI工具以及它們被使用的更廣泛的社會背景,所有這些都可能導致偏見問題。
有效的偏見緩解將需要更多的審計、評估和透明度,以了解AI模型是如何建造的以及其中包含了那些數據。但在我們所處的這個泡沫化的生成性AI淘金浪潮中,我們擔心如何利用AI來賺錢可能優先於如何消除AI的偏見,希望不要等到因為AI的使用而造成悲劇後,人類才要覺醒呀!
瀏覽 34,541 次