叫AI「想像你是一位專家」沒用?寫出的程式碼竟比免費AI模型還差

記者鄧天心/綜合報導

許多人在用AI時,習慣先下一道指令讓AI「想像自己是某個領域的專家」,然而,近期有研究人員發現,預先幫你的AI下「角色設定(Persona-based prompting)」指令,在處理特定任務時可能效果反而變更差。

AI正悄悄重塑工作市場,半數初階白領工作可能在未來五年消失。(圖/AI生成)
研究發現叫AI扮演工程師,寫出的程式碼竟然比基礎模型還差。(圖/AI生成)

南加州大學(USC)的研究團隊在名為《專家角色提升大語言模型對齊但損害準確性》的預印論文中指出,角色設定的效果高度取決於任務類型,對於依賴「對齊(Alignment)」的任務,如寫作、角色扮演等,設定角色確實能提升表現;但對於依賴「預訓練(Pretraining)」知識的任務,如數學與程式編寫,使用該技術反而會讓結果變更差。

研究人員利用MMLU(大規模多任務語言理解)基準測試發現,當要求大語言模型(LLM)在多選題中做出選擇時,「專家角色」的表現始終低於基礎模型,其整體準確度僅為68.0%,低於基礎模型的71.6%。

更多科技工作請上科技專區:https://techplus.1111.com.tw/

研究人員解釋,告訴模型它是某個領域的專家,並不會真的賦予它更多專業知識,因為訓練數據中並沒有增加任何事實。相反地,這類指令可能會激活模型的指令遵循模式,進而擠佔了原本用於事實檢索的運算資源。

南加州大學(USC)博士生胡子昭(Zizhao Hu)分析指出,要求AI扮演「專家級工程師」其實無法憑空變出更好的代碼品質;但如果你的需求是關於UI美感、專案架構或是特定的工具偏好,這種角色設定依然能幫AI更貼近使用者的胃口。

研究團隊開發出一種名為PRISM的新技術,這套系統就像一個聰明的切換開關,當需要專業事實與邏輯時,會讓AI回歸「冷靜模式」提取原始知識;只有在需要特定風格或遵循安全規則時,才會啟動角色模組。

延伸閱讀:

COMPUTEX 2026揭重磅嘉賓!英特爾陳立武將發表主題演講

資料來源:the register

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button