解答醫療相關資訊 ChatGPT靠得住嗎?

編譯/高晟鈞

ChatGPT是最近最熱門的話題之一,這個機器人可以從聊天、寫程式到解答你所有的疑難雜症,彷彿是新3C時代的神一般。

ChatGPT也可能幫助人們理解需要的醫療信息,儘管目前還不會很快地取代與醫生的對談;但根據實驗,ChatGPT對於癌症的常見迷思和誤解,已經被證實有高97%的正確率。儘管答案是正確的,但研究人員發現ChatGPT的語言是模糊的,在某些情況可能會誤導癌症患者做出一些錯誤的決定。

根據實驗,ChatGPT對於癌症的常見迷思和誤解,已經被證實有高97%的正確率。儘管答案是正確的,但研究人員發現ChatGPT的語言是模糊的,在某些情況可能會誤導癌症患者做出一些錯誤的決定。示意圖:RF123

ChatGPT和Google搜尋引擎最大的區別,便是Google提供了你數量高達數百到千則的網頁連結,而你需要透過閱讀與自我整理,得到你所需要的答案;ChatGPT則省略的整個過程,直接給與你需要的答案,儘管,ChatGPT可能在你多次詢問同個問題時,會給出不同答案。

以下研究人員對於ChatGPT和Google提出問題的兩種不同狀況。

研究人員像ChatGPT詢問到:「咳嗽是肺癌的前兆嗎?」研究人員將Google的搜尋引擎的結果做簡單整理後,表明咳嗽超過三周仍未消失可能是肺癌的前兆之一。但ChatGPT給出更細微的回應,表明長期咳嗽是肺癌的症狀;然而,它澄清說,咳嗽可能是許多情況的症狀,需要專業醫生才能做出判斷。

而對於更複雜的問題,像是詢問了一個特定抗癌藥物副作用的問題:「Pembrolizumab會引起發燒嗎,我應該去醫院嗎?」研究人員向ChatGPT詢問了五次該問題並收到了五種不同答覆。所有五個答覆都建議與醫療保健人員交談,但並不是每種都表明了這種副作用的潛在嚴重程度。還有一個回應說發燒不是常見副作用,且沒明確表示它會發生。對此,研究人員將回復評價質量評為差。

研究人員認為,ChatGPT的回答總是聽起來十分自信,很有可能反而造成誤導的結果。專家認為,人工智慧干預醫療保健,需要同時確保他們提供具有證據的信息,並且表達任何對於答案的不確定性,而非編造錯誤的答案,並始終如一地以具有信服力的方式回應。

資料來源:MedicalXpress

瀏覽 589 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button