AI幻覺救星?談「檢索增強的生成式AI」|專家論點【張瑞雄】

作者:張瑞雄(前北商大校長)

自從ChatGPT在去年11月問世之後,很多企業都躍躍欲試,但總擔心若將企業的資料給了ChatGPT,會不會有商業機密外洩的問題。但若不使用這種生成式人工智慧的工具,又怕會落後競爭對手,所以心裡非常糾結。

雖然AI的通用語言模型可以進行微調以實現一些常見的任務,例如情緒分析和名詞識別,這些任務通常不需要額外的背景知識。但對於更複雜和知識密集的任務,可以指揮語言模型的AI系統來存取外部知識來源以完成任務,這使得回應更加正確,提高了生成式AI的可靠性,並有助於減輕生成式AI的「幻覺」問題。

這種救星技術稱為「檢索增強的生成」(RAG, Retrieval-Augmented Generation),用於為現有人工智慧模型提供新訊息,以使其執行特定任務。過去所謂微調一個AI模型實際上涉及使用新數據來調整現有模型,從而產生延生的模型。而RAG只是為模型提供一組從未接受過訓練的數據,並要求其在回應中考慮該組數據。使用RAG無需更改模型,只需要求它臨時參考外部數據組以回答特定的問題,事後它立即「忘記」該數據組。

RAG最簡單的方法,使用者可以從內部資料庫中檢索一些想要的文檔或文本,然後將其連同使用者的要求一起發送給AI,請其參考所附的資料來回答問題,AI模型沒有改變。它之所以如此受歡迎,就是因為它很簡單。對於任何想要使用現有的大型語言模型去建立應用程式的人來說,它都非常有用,並且很容易理解為什麼它會流行。

微調甚至提示工程(使用者建立和完善文字提示以引出想要的AI的回應)非常耗時,並且增加了許多複雜性。微調通常需要為模型提供數百或數千個範例,但RAG只需要一兩個文檔,甚至可能是數十個範例。當然,許多更複雜的任務將繼續需要更密集的微調過程,但RAG提供了一種簡單的方法來增強大型語言模型AI的能力,使其能夠使用更新的數據或特定領域的數據,甚至是執行某種任務的專有數據。

但RAG並不是靈丹妙藥,隨著模型變得越來越好,檢索是最困難的部分。您需要為模型提供正確的輸入,這可能意味著搜尋大量文檔以將其範圍縮小到最相關的文檔,分解文檔,或者因為大型語言模型只能讀取文本,所以必須重新格式化包含表格的更複雜的PDF文檔或其他圖檔和圖表。

很多公司目前正在開發專門幫助應用程式開發人員使用RAG的產品,提供如何根據您想要開發的應用程式類型來使用RAG。所有公司都希望能夠在自己的數據上利用大型語言模型的力量,這意味著RAG未來在企業中可以發揮重要的作用。

瀏覽 1,487 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button