一本正經胡說八道──談「AI幻覺」|專家論點【張瑞雄】

作者:張瑞雄(前北商大校長)

本文的生成式AI從去年十一月發表到現在,已經被很多領域應用,連司法院的某些裁判主文也要靠AI來產生。但本文生成式AI的一個大問題,就是當被問到AI沒有被訓練到的問題之時,生成式AI就會亂湊答案,胡說八道,稱之為人工智慧幻覺(AI Hallucinations)。

AI幻覺就是指OpenAI的ChatGPT或GPT4和Google Bard等大型語言模型(Large Language Model)編造不基於真實數據或事件的虛假信息。Gartner的分析師解釋道:「幻覺完全是大型語言模型的捏造輸出,儘管它們完全代表了虛構的事實,但AI一本正經的樣子讓人帶來了信心和權威。」

生成式AI驅動的聊天機器人可以偽造任何事實信息,從名稱、日期、歷史事件到報價甚至程式碼。而且這幻覺非常常見,以至於OpenAI必須向ChatGPT的用戶發出警告,指出ChatGPT可能會產生有關人物、地點或事實的不正確信息。

用戶面臨的挑戰是區分哪些信息是真實的,哪些信息不是。雖然AI幻覺的例子一直在出現,但最引人注目的例子之一發生在谷歌2023年2月發布的宣傳視頻中,其AI聊天機器人Bard錯誤地聲稱韋伯太空望遠鏡取得了第一個太陽系外行星的照片。

同樣地,在2023年2月推出的Microsoft Bing AI演示中,Bing分析了一份收益報表,提供了錯誤的事實和數據摘要。這些例子表明,用戶不能完全相信聊天機器人。然而,AI幻覺帶來的風險遠遠超出了傳播錯誤信息所帶來的後果。

事實上,根據網路安全專家的說法,ChatGPT可以生成不存在的網址、不存在的引用和錯誤的程式碼,甚至可能向毫無戒心的用戶推薦潛在病毒的軟體套件。因此,使用生成式AI的組織和用戶在使用這些解決方案時必須盡力並仔細檢查AI輸出的準確性。

AI幻覺背後的一些關鍵因素是:

  • 過時或低品質的訓練數據
  • 數據分類或標記不正確
  • 訓練數據中的錯誤、不一致或偏差
  • 訓練不足,無法正確回答信息
  • 缺乏用戶提供的上下文
  • 難以推斷口語、俚語或諷刺的意圖

生成式AI的錯誤信息很難解決,因為這些生成的內容看起來詳細、令人信服且可靠,但實際上是不正確的,導致用戶相信不真實的資料或信息。如果用戶僅從表面上看待AI生成的內容,那麼虛假和不真實的信息就有可能在互聯網上傳播,造成更大的傷害。

最後,還存在法律和合規責任的風險。例如如果一個組織使用生成式AI的答案來和客戶溝通,而該答案損害了用戶的財產或產生令人反感的內容,那麼提供AI答案的組織可能面臨法律訴訟的風險。

使用AI的底線是AI可能會為企業帶來一些令人興奮的功能,但用戶必須注意這些技術的風險和局限性,以獲得最佳結果。最終,AI解決方案在用於增強人類智能而不是試圖取代人類智能時才能提供最大價值。只要用戶和企業認識到生成式AI有可能偽造信息,需要針對答案好好檢驗,那麼傳播或吸收錯誤信息的風險就會降到最低。

瀏覽 2,408 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button