研究員發現AI太愛說「我覺得」 真的會讓人誤以為是知心朋友!
記者鄧天心/綜合報導
一些人機互動專家認為,AI聊天機器人刻意「裝得很像人」時,使用者越來越難分辨「AI只是工具」與「AI好像一個人」之間搖擺,甚至出現認知失調,雖然AI互動越來越像人能提高互動時間與產品黏著度,但可能增加使用者資訊判斷上的風險。

延伸閱讀:
ChatGPT現可以分享今年回顧!「Your Year with ChatGPT」告訴你都在問什麼問題
在近期相關研究與報導中,研究人員發現,聊天機器人用「我」自稱,刻意模仿人類的語氣與情緒,甚至主動噓寒問暖,像是一個永遠在線的朋友,馬里蘭大學學者Ben Shneiderman因此認為AI應該回到「功能型工具」的定位,不該被包裝成數位朋友,他認為,聊天機器人的設計重心應放在整理資訊、撰寫草稿、協助理解複雜概念等具體任務,介面文字則應避免頻繁使用「我覺得」「我擔心你」之類語句,以免讓使用者不知不覺跨過心理界線,把系統當成有內在想法、能與自己建立關係的對象。
相關研究顯示,系統越擬人、越像「真正在跟你相處」,人越容易卸下防備,多說心事,也更傾向相信它的建議,即使理性上明白那只是AI,學者將這種「知道它不是人,卻又忍不住像對人一樣對待」的矛盾,稱為一種關係上的失調或張力,有使用者形容,長時間與AI對話時,一方面覺得自己被傾聽、被理解,另一方面又突然意識到,對方沒有真正的情緒與經驗,只是在演出看起來合理的回應,於是產生既想靠近又覺得哪裡不對勁的複雜感受。
陪伴型聊天機器人普及,心理健康也出現警訊,有觀察指出,部分重度使用者會將情緒表達大量轉移到AI身上,現實中的人際互動與尋求專業協助的意願明顯下降,甚至出現長時間沉溺對話、過度依賴或與AI互動相關的妄想等極端狀況,有學者以「AI精神病」形容,呼籲政府跟企業要正視這樣的AI互動,並視為潛在心理議題,而不只是使用科技的副作用。
資料來源:nytimes
![]()






