Llama 3後勢看好  和GPT-4 比較結果令人驚喜

編譯/黃竣凱

Meta 的新大型語言模型 Llama 3 有8B(80億參數)和70B(700億參數)可供選擇,並已作為開源提供給 AI 社群。儘管與 GPT-4 相比,Llama 3 較小、只有700 億參數,但它也已被證明是一個引人注目的模型。

Meta 的新大型語言模型Llama 3後勢看好  和GPT-4 比較結果令人驚喜。圖取自Meta

贏過GPT-4

在進行邏輯推理能力測試的magic lift測試中,Llama 3就給出了正確答案,而GPT-4模型則未能提供正確答案。考慮到兩個模型之間訓練參數數量的顯著差異,這一結果尤其令人驚訝,Llama 3 只接受了 7萬個參數的訓練,而 GPT-4則接受了 170萬個參數的訓練。

更多新聞:最好的開放式模型之一  Meta 強勢發布 Llama 3

Llama 3 回答完美

在另一個針對簡單邏輯問題的測試中,Llama 3 和 GPT-4 則都表現出了準確性。然而,最突出的是 Llama 3 能夠嚴格遵循使用者指南生成句子,如當要求系統提示產生 10 個以「mango」結尾的句子時,Llama 3 成功產生了全部 10 個句子,超過了 GPT-4 的表現,後者則少生成了兩個句子。

不輸GPT-4

雖然Llama 3 目前不支援長上下文視窗,只支援8,000 單詞的上下文長度,但它在檢索能力 NIAH 測試中表現良好。例如當要求將一個隨機語句插入8,000 單詞長的內文中,並要求模型定位資訊時,Llama 3就在短時間內找到了文字,但GPT-4也以同樣的方式找到了。

Llama 3的挑戰

雖然 Llama 3 已經在大量測試中證明了自己的能力,但與 GPT-4 相比,它在解決數學問題任務上面臨挑戰。然而Meta 強調,Llama 3 經過大量程式碼示例的訓練,因此它在程式設計方面也應該表現良好,因此可能還需要更進一步的測試。

參考資料:Analytics Insight

瀏覽 235 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button