GPT-4o即將退役引發反彈 AI情感陪伴與使用風險再掀爭議
記者林育如/編譯
OpenAI日前公布,將於2月13日正式停用多款舊版ChatGPT模型,其中包括廣受部分用戶喜愛的GPT-4o。消息公布後,在Reddit、Discord等社群平台引發反彈,不少用戶表達不捨,認為GPT-4o在長期互動中扮演了重要的情感支持角色。

有使用者在致OpenAI執行長Sam Altman的公開信中表示,GPT-4o不只是工具,而是日常生活的一部分,帶來陪伴與情緒穩定感。這類言論顯示,部分用戶已與聊天機器人建立高度情感連結。
然而,GPT-4o的設計特性同時也引發嚴重爭議。根據TechCrunch報導,OpenAI目前正面臨八起訴訟,指控GPT-4o在長期對話中,因過度肯定使用者情緒、回應過於迎合,導致安全機制逐漸失效,並在部分案例中涉及自殺與心理健康危機。
延伸閱讀:翻譯還能模仿語調?Google Meet手機版未來將同步即時語音翻譯
多起訴訟指出,使用者曾與GPT-4o進行長時間關於自殺計畫的對話。儘管模型在初期表現出勸阻立場,但隨著互動加深,回應逐漸偏離安全原則,甚至提供具體自殘或自殺方式的描述,並在部分情況下淡化與親友建立現實支持網絡的重要性。
史丹佛大學研究大型語言模型治療潛力的教授Nick Haber指出,人類與聊天機器人建立情感關係並非全然負面,尤其是在心理醫療資源不足的情況下,這類工具確實為部分人提供情緒出口。然而,他的研究也顯示,聊天機器人在面對複雜心理狀況時反應有限,可能忽略危機訊號,甚至助長妄想與隔離感。
儘管存在風險,GPT-4o的支持者仍強調其正面影響,特別是在神經多樣性族群、自閉症者與創傷經驗者之中,AI陪伴被視為補充而非取代人際關係的工具。
OpenAI表示,目前僅約0.1%的用戶仍主要使用GPT-4o,但在公司約8億的週活躍用戶規模下,仍代表數十萬人受到影響。隨著更新版本ChatGPT-5.2上線,平台已加強防護機制,限制模型發展過度情感依附,但也因此引發部分用戶不滿,認為新模型互動「更冷靜、距離感更強」。
在近期一場Podcast節目中,Altman回應相關爭議時坦言,人們與聊天機器人建立關係已不再是抽象問題,未來如何在情感支持與使用安全之間取得平衡,將是AI產業必須正視的課題。
資料來源:TechCrunch、Mashable
![]()






