AI醫療輔助應用的困難|專家論點【張瑞雄】

作者:張瑞雄 台北商業大學前校長/叡揚資訊顧問

隨著人工智慧(AI)技術的快速發展,醫療領域也逐漸迎來前所未有的變化,特別是以大型語言模型(LLM)為核心的AI醫療輔助系統。但近日由牛津大學等機構共同進行的一項研究卻指出,儘管LLM在醫學知識測試中表現出色,但在實際人機互動場景下,其表現卻不盡理想,甚至可能帶來潛在的醫療誤導風險。

11
實際應用中必須建立更真實且多元的人機互動評估機制,以確保AI系統在醫療應用中的安全與有效性。(圖/AI生成)

該研究指出,以三個主流的LLM進行測試,發現在獨立處理醫學情境時,LLM能高達94.9%的正確率識別相關疾病,但若需人類使用者透過與AI的互動來進行判斷,識別正確疾病的比率卻降至不到34.5%,甚至低於對照組的47%。此外,LLM直接建議的醫療處置(如是否需急診或可自行照護)正確性也僅約56.3%,當使用者與LLM互動後的處置建議正確率則更低,只有不到44.2%。

究其原因,研究者認為,問題主要來自於人與AI互動時的資訊傳遞不足或錯誤。使用者常未完整提供關鍵資訊給AI,或AI錯誤解讀使用者的問題;另一方面,即便AI提供了正確的建議,使用者也未能準確理解或採納。這突顯了一個重要的事實,單憑AI系統的醫學知識優異,並不代表使用者能有效運用這些知識來改善醫療決策。

此現象提醒我們,醫療場域中AI部署必須謹慎。過往AI醫療應用的評估多基於標準醫學知識測試,如美國醫師執照考試(MedQA)。但此類考試無法精確反映AI在人機互動中的實際表現,過度依賴標準測試可能會忽視人機互動中真正的問題。因此,實際應用中必須建立更真實且多元的人機互動評估機制,以確保AI系統在醫療應用中的安全與有效性。

相較於AI醫療輔助應用的困難,AI更宏觀的應用前景卻可能為人類社會帶來巨大的潛力與挑戰。Google DeepMind執行長Demis Hassabis表示,未來五到十年內可能會達到人工通用智慧(AGI),這將賦予AI媲美人類全面的認知能力。Hassabis樂觀預期,若AI技術得以穩健發展,不僅能有效解決現今人類面臨的重大問題,如疾病、能源及資源分配,甚至可能改變人類自私的本質,使社會轉向非零和博弈。

如此廣泛且深刻的AI應用必然帶來倫理、法律及社會制度上的挑戰。例如AGI可能加劇職業市場變動,甚至可能引發失業潮;AI高度自主的行為模式也可能產生難以預測且具破壞性的後果。Hassabis指出,目前的AI系統尚未達到存在性風險,但未來強化AI自主性後的安全性管控將是關鍵課題。全球在發展AI時必須保持謹慎與警覺,建立國際共識與治理規範,防範潛在風險。

綜合而言,AI在醫療領域的應用,尤其是透過LLM的人機互動模式,雖具潛力但仍需謹慎部署和細緻評估。從醫療到社會經濟,AI技術的未來既充滿希望也伴隨著風險。我們需在技術創新與制度規範之間找到平衡點,透過持續且深入的研究和政策規劃,確保AI真正造福人類社會,而非帶來難以預料的後果。

 

瀏覽 72 次

發佈留言

Back to top button