AI搜尋的信任危機|專家論點【張瑞雄】

作者:張瑞雄 台北商業大學前校長

近來Google推出的AI Overview功能,原本被視為搜尋引擎革命的一大步,卻因為一連串荒謬甚至危險的錯誤答案,引發全球用戶的譁然。從「吃膠水防止起司滑落披薩」到「每天吃一顆石頭補充礦物質」等,Google引以為傲的AI搜尋不但沒有幫助人類接近真相,反而讓搜尋結果變得更加荒誕與不可信。

在資訊可信與技術創新之間,唯有守住透明、可驗證與謹慎原則,AI才能真正成為人類知識的助力,而非誤導。(圖/123RF)

這場風波不只是一次科技產品瑕疵的事件,更突顯出當AI技術被過度樂觀推進,卻缺乏足夠把關機制時,會對社會信任造成何等破壞。尤其是Google作為全球最主要的資訊門戶,當它的搜尋結果出現錯誤,不只是一項功能的失靈,更是整個資訊生態系統的動搖。

延伸閱讀:Google搜尋市占跌破90% 馬斯克:AI將取代一般搜尋引擎

AI Overview出錯的根本原因,來自其背後的大型語言模型(LLM)。這類模型的核心運作方式,是透過預測「下個最可能的字詞」來產生回答,其結果雖然語句通順、語法正確,但並不保證內容正確。當語言模型從訓練資料中讀取帶有誤導性的幽默、惡搞內容時,它並無辨別真偽的能力。

Google為了降低這種風險,導入了「檢索強化生成」(Retrieval-Augmented Generation, RAG)機制,希望讓AI在回答問題時,能根據網頁實際內容來引用來源。然而這套機制仍有漏洞。當網頁中本身資訊錯誤,或有語境混淆時,例如幽默性內容或雙關語,AI無法正確理解其語意,結果反而生成更離譜的建議。

這一連串問題的背後,其實是Google面臨與微軟結盟的OpenAI競爭壓力下的急就章結果。ChatGPT在2022年底橫空出世後,引發全球科技巨頭AI競賽,Google被迫加快步伐整合AI進入核心搜尋產品。在這種「趕工式創新」下,產品尚未經過充分測試、社會對使用風險尚未理解清楚,就已經被大規模部署到數十億用戶手中。

對Google而言,搜尋引擎不僅是技術產品,更是其商業與品牌的命脈。過去20年來,Google建立的是「可靠資訊的入口」形象,但當AI Overview將搜尋頁面變成一場「貼圖式荒謬笑話」,用戶的信任便迅速崩解。一位用戶在社群平台X(前身為Twitter)寫道:「Google搜尋是Google唯一必須保持可信的資產,而AI Overview正把這一切毀掉」。

Google對外回應強調,目前多數錯誤發生在「不常見的搜尋詞」上,而且「極大多數的AI Overview回應仍具高品質」。這樣的說法,雖然可能有一定事實基礎,但卻低估了即使極少數的錯誤,也足以造成極大的社會影響。

AI搜尋功能若要成為未來資訊查詢的核心工具,必須遵守三項原則:一是資訊來源的可溯性與可質疑性,讓使用者可以快速查證其真實性;二是錯誤辨識的即時性與透明化通報機制,建立對錯誤修正的信任;三是「AI回答是否必要」的判斷能力,對於無法保證準確性的問題,應明確表示「AI無法回答」,而非強行編造答案。

Google AI Overview事件,為當代AI應用敲響一記警鐘。技術的進步不能只是速度競賽,更應兼顧社會信任與倫理底線。資訊平台擁有塑造認知與知識的力量,錯誤資訊一旦被包裝成AI的「權威建議」,其殺傷力遠大於人為誤解。

在這個語言模型與搜尋引擎整合加速的時代,真正的創新不應是將不成熟的AI推向大眾,而是設計出更懂人性的AI、更懂限制自己的AI。在資訊可信與技術創新之間,唯有守住透明、可驗證與謹慎原則,AI才能真正成為人類知識的助力,而非誤導。

瀏覽 56 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button