LLM到底是指什麼?盤點20個科技圈熱門關鍵字 一次看懂(下)
記者鄧天心/綜合報導
延續上篇:看懂科技新聞必備術語!從AGI到蒸餾 熱門關鍵字一次看懂(上),對AGI與AI代理人等熱門關鍵字的討論,這次我們整理了開發者與業界人士最常掛在嘴邊的核心術語,助你全面掌握AI產業的完整樣貌。

GAN(生成對抗網絡)
Generative Adversarial Network (GAN) 是一種機器學習框架,是生成式AI生產擬真數據(包括深偽技術工具)的重要基礎,GAN涉及一對神經網絡:「生成器」(generator)負責根據訓練數據產生輸出;「辨別器」(discriminator)則負責評估輸出的真偽。
兩者像是在進行一場競賽,生成器試圖騙過辨別器,而辨別器則努力抓出人工合成的跡象。這種對抗過程能讓AI在不需要人為干預的情況下,優化出極為擬真的照片或影片。
Hallucination(幻覺)
Hallucination 是AI產業對模型生成錯誤資訊的專有名詞。這對AI品質來說是個巨大的挑戰,因為幻覺產生的內容可能具誤導性,甚至在醫療或法律諮詢中帶來現實風險。幻覺通常源於訓練數據的缺失或邏輯推演的錯誤,目前業界正推動專業化或垂直領域的模型,以降低知識落覺與資訊錯誤的風險。
Inference(推理)
Inference 是執行AI模型的過程。簡單來說,就是讓訓練好的模型針對新問題進行預測或得出結論。推理需要硬體支援,從手機處理器到強大的GPU都能執行,但效率大不相同。特大型模型若在筆電上執行推理,速度會遠慢於配備高端AI晶片的雲端伺服器。 (參見:Training)
Large Language Model(LLM,大型語言模型)
LLM 是驅動ChatGPT、Claude、Gemini等AI助理的核心模型。它們由數十億個參數組成,透過學習數十億本書籍、文章中的模式,建立出一套語言的維度地圖。當你輸入提示詞時,LLM本質上是在計算並預測下一個出現機率最高的字。
Memory Cache(記憶體緩存)
Memory cache 是提升推理效率的技術。AI運算非常耗能,緩存技術能將特定的計算結果保存起來,當下次遇到類似請求時直接調用,減少重複運算的負擔,進而讓生成答案的速度變快。
Neural Network(神經網絡)
Neural network 是支撐深度學習的多層演算法結構。雖然靈感來自人腦的神經元連結,但直到近代GPU算力大爆發,才真正讓這種複雜的多層結構得以發揮力量,實現了語音識別、自動導航與藥物研發等突破性應用。
RAMageddon(記憶體末日)
RAMageddon 描述的是當前科技界的嚴峻趨勢:隨機存取記憶體(RAM)晶片因AI熱潮而嚴重短缺。由於AI大廠瘋狂搶購RAM來建設數據中心,導致一般消費性電子產品(如手機、電玩主機)面臨元件漲價或供貨不足,這場瓶頸短時間內似乎看不到盡頭。
Training(訓練)
開發AI的過程稱為training。這涉及將海量數據餵入模型,讓它從模式中學習並修正輸出。在訓練之前,模型只是隨機數字組成的架構,透過訓練,它才能學會如何識別貓的照片或創作詩歌。
Tokens(代幣/標記)
Tokens 是人機溝通的最小單位。AI不直接理解人類文字,而是透過「標記化」(tokenization)將文字切成片段數據來消化。在企業端,Token的使用量也直接決定了使用AI服務的成本,通常是「用多少算多少」。
Transfer Learning(遷移學習)
Transfer learning 是將先前訓練好的模型知識應用於新任務的技術。這能節省大量的開發時間與算力,特別適合數據量不足的新領域,是目前AI開發中非常高效的策略。
Weights(權重/參數)
Weights 決定了數據中不同特徵的重要性。在訓練過程中,AI會不斷調整這些數值參數,直到輸出的結果最符合目標。例如預測房價時,「地點」的權重通常會比「牆壁顏色」高得多,權重的精準度決定了模型的優劣。
延伸閱讀:
Google發表超像真人的語音AI模型 可以說耳語、激動歡呼!
資料來源:techcrunch
![]()






