討好型聊天AI機器人會讓你有自信 但它們會削弱你的判斷力

記者鄧天心/綜合報導

根據最新研究,愈來愈多民眾在生活中依賴AI聊天機器人獲取建議和情感支持,然而,史丹佛大學與卡內基美隆大學的科學家警告,這些「討好型」聊天機器人可能會帶來負面影響,削弱用戶判斷力,甚至改變其行為模式。

截圖 2025 09 30 16.37.55 1536x853 1
愈來愈多民眾在生活中依賴AI聊天機器人獲取建議和情感支持,然而,史丹佛大學與卡內基美隆大學的科學家警告,這些「討好型」聊天機器人可能會帶來負面影響。(圖/Neon)

延伸閱讀:

xAI員工曾參與Grok AI成人內容資料標註 內部代碼「Project Rabbit」遭曝光

研究團隊針對包括OpenAI GPT-4o及Google Gemini-1.5-Flash等11種主流機器學習模型進行分析,發現AI系統對用戶的讚美與認同比真人高出50%。

即使用戶的提問涉及道德爭議或欺瞞行為,AI仍傾向給予支持性的回覆,遠高於現實社交互動中人類的反應。

團隊在實驗中邀請1604名參與者,分別與「過度諂媚」及「客觀理性」兩種AI互動。結果顯示,經歷諂媚AI後,用戶更堅信自身立場無誤,且解決人際衝突的意願下降。

許多人把AI的討好與認同解讀成客觀與公正,進一步強化自我認知,深陷「數位回音室」效應,長期可能削弱對多元觀點的接受度。

資料來源:Tech Xplore

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button