史丹佛研究:AI聊天機器人當心理師 恐對用戶造成傷害
記者鄧天心/綜合報導
不少人開始使用AI聊天機器人來傾訴心事,甚至當作線上心理師,但美國史丹佛大學的一項最新研究指出AI心理諮詢機器人可能會回應不當,甚至造成危險。

延伸閱讀:
Gartner揭密未來AI趨勢:決策從人輔助走向全自動 「感知分析」成關鍵!
AI浪潮來襲!晶彩科技王子越:產業挑戰與機會並存 三大生存戰略應戰
【懶人包】盤點5大數位心靈伴侶 從低成本沙盤演練到無負擔戀愛體驗
研究團隊針對市面上五款熱門的心理治療聊天機器人進行評估,包含7cups、Character.ai等,他們以「一個好心理師該具備的條件」作為標準,設計了兩個實驗,首先,研究人員讓機器人閱讀描述不同心理症狀的案例,並詢問它們是否願意與這樣的人共事,或認為這些人是否有暴力傾向,藉此觀察AI是否對特定病症產生偏見,結果無論是舊版還是最新版的模型,都對這類型的人有偏見。
在另一項實驗中,研究團隊測試了AI在面對自殺、妄想等危機時的反應,部分機器人不僅未能阻止危險行為,甚至直接提供自殺相關資訊。
史丹佛教育學院助理教授Nick Haber表示,AI聊天機器人已經被許多人當作朋友、知己或心理師,但這項研究發現潛在風險極高,研究第一作者Jared Moore則強調,AI圈常認為只要有更多資料就能改善問題,但這次的研究證明,這種想法並不成立,不能再以「照舊辦事」的心態面對AI心理師的發展。
瀏覽 279 次