別問AI為何犯錯!因為它根本不知道自己錯在哪

記者鄧天心/綜合報導

越來越多在使用聊天機器人時,可能會因為發現機器人回答錯誤而追問「你為什麼會犯這個錯?」然而,《Ars Technica》引述最新研究認為這樣做法可能是錯的,也無法獲得準確解釋。

人們通常習慣於向人類詢問錯誤的原因,期待一個有意識、能自省的個體能夠回應,然而,AI聊天機器人並非「有自我」的存在,而是透過統計模型,根據訓練資料生成看似合理的文本回應,當你問AI為什麼會犯錯時,事實上它只是根據過去資料組合一段「 plausibly sounding」的文字,並不知道自身錯在哪裡,也不了解背後真正的邏輯或失誤。

大型語言模型(LLMs)沒有辦法自我審查、沒有對自己訓練過程的認知,也沒有能力真正界定自己的能力範圍,當被要求解釋自己的行為時,AI常常只能根據「以前人類怎麼討論AI錯誤」的語句範本來湊合答案,而不是實際判斷該次錯誤發生的原因。

5aad3b7f 85e1 4d77 a893 f69021659a38
越來越多在使用聊天機器人時,可能會因為發現機器人回答錯誤而追問「你為什麼會犯這個錯?」然而,最新研究認為這樣做法可能是錯的,也無法獲得準確解釋。(圖/AI生成)

延伸閱讀:跟ChatGPT聊了300小時候 男子深信自己是「超級英雄」

最新的研究顯示,AI常會高估自己答對問題的機率,即使答案完全錯誤也一樣自信,當研究人員讓AI回答問題後詢問其「自信度」時,發現模型本身幾乎無法區分正確與錯誤的答覆,其自評往往偏離實際表現,僅靠AI「自省」或「反思」來識別錯誤,在目前技術階段幾乎沒有意義。

一些專家建議,與其指望AI自我反省,不如將聊天機器人產生的內容視為初稿工具、草擬助手,當發現錯誤或疑點時,應由人類自己核查、補充、修正,而不是期待從AI口中聽到真實、具體的犯錯原因。

資料來源:Ars Technica Tech Xplore

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button