AI招聘也有偏見 多元數據有助改善

編譯/曲姵蓉

人工智慧革命已經開始,人們的生活、工作甚至求職都有AI的影子,許多企業開始引進AI提升供應鏈、服務、開發和HR管理的效率。AI招聘人才卻意外掀起兩方論戰,大部分人主張AI招聘能消除人為偏見,提高決策公平與一致性,但研究指出AI會加劇招聘偏見,人類HR的參與更會導致情況惡化。

專家強調,企業需要培訓HR資訊和AI能力,了解人工智慧系統中偏見識別以及緩解影響的策略。圖 / 123RF

AI也會歧視

根據報導,企業招聘過程使用AI是因為它更加公平與客觀,但如果訓練AI的數據有缺陷,那麼演算法與實際使用過程中也會出現缺陷或歧視問題。企業需要培訓HR資訊和AI能力,了解人工智慧系統中偏見識別以及緩解影響的策略。此外也需要收集多元數據,促進HR和AI開發人員間協作,確保訓練AI的數據量夠大且公正,才能打造公平的AI招聘系統。

更多新聞:人工智慧HR高效卻遭批「感覺不到靈魂」

「刻板印象」和「偏好相似的人」

外媒訪問超過22位人力資源專業人士,發現AI招聘最常出現的兩種問題是「刻板印象」和「偏好相似的人」。HR在審核求職者時通常會帶有自己的刻板印象,例如性別、年齡或背景等,這屬於「刻板印象」;而「偏好相似的人」則是指HR可能會較偏愛有相似背景或興趣的求職者,並且優先錄取。HR做出的每個選擇都會被記錄到系統中,再反過來成為訓練AI的利器,因此導致有偏見的AI招聘審核系統。

AI開發人員表示,在開發AI招聘模型時,HR跟工程師通常會反覆交換資訊,避免偏見數據產生。然而雙方在教育、專業和人口統計學皆存在差異,無法有效溝通、合作和相互理解,因此企業應加強員工訓練,聘請專家彌合AI開發人員與HR之間的鴻溝。

專家也強調,各國政府應制定AI招聘系統的指導說明和道德標準,建立公平且透明的人才市場機制,促進AI驅動決策的準確性和責任。

資料來源:ABP

瀏覽 955 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button