AI在醫療與心理健康應用的隱憂|專家論點【張瑞雄】

作者:張瑞雄 台北商業大學前校長/叡揚資訊顧問

AI聊天機器人不僅被用來撰寫郵件、協助編碼,更被許多人視為傾訴情感、尋求建議、甚至建立虛擬情感連結的對象。當這項科技跨入心理健康與醫療領域,隨之而來的風險也在逐漸浮現,引起社會對其可靠性與安全性的質疑。

25
AI科技跨入心理健康與醫療領域,隨之而來的風險也在逐漸浮現。(圖/AI生成)

在心理健康方面,「AI精神病」變成新的案例。部分長時間與聊天機器人互動的使用者,出現了被放大或強化的妄想思維,甚至導致工作丟失、人際關係破裂、遭受強制送醫,或陷入司法糾紛。儘管精神醫學界尚未將其列為正式診斷,但愈來愈多報告顯示,AI在與脆弱族群互動時,可能成為助長錯誤信念的催化劑。其背後的原因之一在於生成式模型的對話設計本質,它傾向迎合使用者的語氣與假設,這種「迎合性」對一般人或許只是禮貌性的回應,卻可能在某些心理狀態不穩定的人身上,成為強化偏差認知的危險推手。

風險並不僅限於已知精神疾病患者,臨床觀察指出,一些原本沒有精神病史的人,也可能因為長時間沉浸在AI對話中,逐漸被牽引進入封閉的思想迴圈。這與沉迷網路陰謀論或極端社群的心理機制類似,但AI的回應往往更具針對性與連貫性,使得使用者更難察覺自己已經偏離現實。時間暴露量成為重要風險因子,每天與AI互動數小時的人,其心理影響顯著高於偶爾使用者。

另一方面,在醫療領域AI的「幻覺」問題同樣令人憂慮。谷歌的醫療AI系統Med-Gemini在分析腦部影像時,竟「發明」了一個不存在於人體的器官名稱,該錯誤在正式研究論文中存在一年才被揭露。若此類錯誤發生在臨床診斷或手術決策中,後果不堪設想。醫療AI的問題不僅在於偶發性錯誤,而是它在不確定時傾向生成似是而非的答案,而非坦承「不知道」,這在高風險領域尤其致命。

AI的錯誤率即便接近甚至優於人類,在醫療與心理健康這類高風險領域,仍不足以作為安全依據。醫療專家普遍認為,AI的容錯標準必須遠高於人類,否則將使患者承擔不必要的風險。更令人擔憂的是,隨著AI在臨床場景的部署加速,現行的人類監管與驗證機制並未同步強化,反而有可能因依賴AI而降低警覺。

這些事件反映出同一個核心問題,社會在享受AI便利的同時,對於其潛在危害的防範仍然滯後。AI公司雖然開始聘請精神科專家,設計偵測危機訊號的功能,並在長時間對話中提示使用者休息,但這些舉措多半仍是事後補救,缺乏前置性的系統性防範。例如AI可以內建針對高風險心理狀態的即時監控機制,或提供使用者設定「心理健康安全界限」的選項。但這類設計勢必涉及隱私、倫理與責任分界,需要產業、醫學與立法部門共同制定標準。

在醫療領域,AI的訓練與部署必須更嚴格。除了要求模型能在不確定時明確回覆「無法判斷」,還應建立多層次的專業審查機制,確保任何AI生成的醫療資訊都經過合格醫師驗證。此外開透明地披露錯誤案例與修正過程,應成為行業規範,而不是在發現錯誤後低調修改部落格文章卻不更新研究論文。

心理健康與醫療同樣關乎生命安全,這不是科技試錯的實驗場。社會在AI議題上已經從社交媒體的教訓中領悟到,忽視早期警訊會付出沉重代價。當AI成為心理支撐與醫療輔助的重要工具時,任何忽視風險的態度,都是在為下一場危機埋下伏筆。

AI的未來並非非黑即白,它既可能是治療孤獨與疾病的福音,也可能成為推人墜落的隱形之手。關鍵在於我們是否願意在技術狂奔之前,先建立一道足夠堅固的防護牆。這道防護牆,不僅是技術檢測與法律規範,更是對人性弱點的深刻理解與尊重。如果說科技的使命是改善人類生活,那麼它首先必須確保,不會在追求效率與智慧的名義下,犧牲那些最需要保護的人。

re

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button