AI大浪淘沙,卻把人類的差異也一併沖走了|專家論點【張瑞雄】

作者:張瑞雄(台北商業大學榮譽講座教授)

南加州大學的研究團隊在《認知科學趨勢》期刊上發表了一篇綜合分析報告,整合超過一百三十份學術研究後提出警告,指出大型語言模型的廣泛使用,正在悄悄壓縮人類思想的多樣性。這份研究一出,在國際學術與科技圈引發不小的震動。它呼應了許多人長期以來的直覺感受,那就是自從AI聊天機器人普及之後,不管是電子郵件、新聞稿、還是社群媒體上的文章,讀起來愈來愈像,彷彿出自同一個無名之手。

這個感覺並非錯覺,而是有數據支撐的現實。

大型語言模型的廣泛使用,正在悄悄壓縮人類思想的多樣性。
大型語言模型的廣泛使用,正在悄悄壓縮人類思想的多樣性。

愈來愈像的文章,愈來愈窄的思路

問題的核心在於大型語言模型的設計邏輯本身就偏向「最大公約數」,這些模型在龐大的文字資料庫上訓練,學習的卻是其中最常見的語言規律與思考模式,而非那些稀少但珍貴的異質觀點。換言之,模型所擅長的是捕捉人類表達中的主流,而非反映人類智識中的豐富差異。訓練資料本身又以英語及西方文化的內容為主,這讓輸出的結果從一開始就帶著明顯的文化偏斜。

當人們使用這樣的工具修改文章時,個人風格往往會被磨平。研究者指出,人們在用AI「潤色」寫作後,不只文字更順暢了,原本屬於自己的語氣、比喻方式,甚至思考習慣,也逐漸被稀釋。更麻煩的是這種改變不僅是表面的文字風格問題,長期接觸特定觀點框架的人,在意見形成上也會朝著模型的立場靠攏。這不是陰謀論,而是已有實驗數據記錄的認知現象。

更多科技工作請上科技專區:https://techplus.1111.com.tw/

集體創意的悖論

有一個發現特別值得深思,研究顯示個人使用AI輔助思考時,確實能產出更多點子、內容也更豐富,但當一群人一起使用AI協作時,整體產出的創意多樣性反而比完全不用AI的小組還低。這個弔詭,揭示了AI作為集體思考工具的一個根本矛盾,它讓個別的輸出量增加,卻讓群體思考的頻譜收窄。

想像一間會議室裡,每個人在腦力激盪前都先問了同AI,表面上看起來大家有備而來,但實際上,所有人都被導入了類似的思路入口,不同成長背景、不同職業經歷所帶來的認知差異,在此之前就已被平滑掉了。集體智慧的力量,從來不只是「聰明人聚在一起」,而是「不同視角的人彼此碰撞」。一旦這個碰撞的條件不存在,多人協作的優勢也就蕩然無存。

AI鏡子裡照出的是誰的臉

除了思維方式,這場同質化浪潮也涉及更根本的文化權力問題。全球數十億人正在使用同樣幾個AI模型處理日常事務,這些模型的設計者在矽谷,訓練資料以英文為主,核心價值觀反映的是特定的文化脈絡。當這套系統成為全球溝通的基礎建設時,非主流語言、非西方的思考邏輯,以及邊緣社群的聲音,就面臨更大的消失風險,不是被禁止,而是被統計平均值稀釋。

因此AI開發者應當主動在模型中納入更多元的語言、觀點與推理方式,而且這種多元必須紮根於人類社會的真實差異,而非隨機噪音。這聽起來是合理的解方,但執行起來談何容易。開發者面對的現實壓力是市場、是效率、是規模,多元性在這套邏輯裡從來不是優先事項,甚至可能被視為一種干擾。

提高底限,還是拉低天花板?

有研究者提出一個頗為精準的比喻,AI的普及把人類表現的底限拉高了,但同時也把天花板給壓低了。它幫助不擅長寫作的人寫出像樣的文章,卻也讓原本有獨特聲音的人逐漸向中間靠攏。那些真正具有突破性的想法,往往來自邊緣,來自異類,來自不符合主流期望的跳躍式直覺。當我們的工具系統性地壓抑這類「不合規律」的思路,長期下來,整個社會在面對未知挑戰時的適應能力與創新潛力,也許會默默折損。

更令人憂慮的是,這個過程是隱性的。沒有人強迫你同意AI的觀點,但當周圍的人都開始說話、寫作和思考得愈來愈相似,個人若選擇保持異質,反而會顯得突兀,甚至被視為「表達不夠清楚」或「觀點不夠成熟」。同質化的壓力不需要任何明確的命令,只需一個無處不在、看似中立的標準存在,人們就會自然地向它靠攏。

這並不是反對AI使用的呼籲,而是一個提醒。工具始終是工具,問題在於我們是否清醒地意識到自己在使用它時,有哪些東西正在悄悄地被交換出去。保有自己獨特的腔調,保有那些看似不夠流暢卻真正屬於自己的想法,在AI無所不在的時代,或許才是最值得捍衛的事。

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button