OpenAI總裁:GPT-4不完美,但相當好
編譯/莊閔棻
為了更了解GPT-4的開發週期、能力,以及它的局限性,《TechCrunch》採訪了OpenAI的聯合創始人之一和總裁Greg Brockman。
當被問及如何比較GPT-4和GPT-3時,Brockman說了一個詞:不同(Different)。他表示:「他們只是不同。」他說,「(模型)仍然有很多問題和錯誤…… 但你真的可以看到在微積分或法律等方面的技能跳躍,原本它在某些領域非常糟糕,但現在,相對於人類來說(它的表現)相當好。」
- 多模態性
GPT-4更厲害的是其多模態性(multimodality)。與GPT-3和GPT-3.5只能接受文字提示不同,GPT-4可以同時接受圖片和文字的提示,並執行一些動作。
而這是因為GPT-4是在圖像和文本數據上訓練的,但它的前幾代模型只在文本上進行訓練。OpenAI表示,訓練數據來自「各種授權過的和公開可用的數據源,其中可能包括公開可用的個人資訊」,但當被問及具體細節時,Brockman表示說他不知道。
Brockman說:「有一些政策問題,如臉部識別和如何對待人的圖像,我們需要正視和解決。」他說:「我們需要弄清楚,如,危險區在哪裡、紅線在哪裡,然後隨著時間的前進澄清這一點。」
- 穩定性
而當被問及GPT-4的穩定性時,Brockman強調,該模型已經經歷了六個月的安全培訓。在內部測試中,與GPT-3.5相比,它降低了82% 模型做出OpenAI使用政策中不允許的回應的機率,且提高了40% 給出「事實 」的回應率。
Brockman表示:「我們花了很多時間試圖了解GPT-4的能力,而把它放到世界上是我們學習的方式。我們不斷地進行更新,包括一堆改進,這樣模型就更能擴展到你希望它處於的任何個性或某種模式。」
- 語氣
然而,微軟由GPT-4驅動的聊天機器人Bing也已被證明極易受到用戶的影響。只要透過對話引導Bing,它就可能會進行愛意表白、威脅傷害、為大屠殺辯護和編造陰謀論等失控行為。
對此,Brockman沒有否認GPT-4的不足,但他強調了該模型新的緩解性轉向工具,包括一種稱為「系統 」訊息的API級能力。Brockman說:「真正弄清楚GPT-4的語氣、風格和內容一直是我們的一個重要焦點。」她說:「我認為我們已經開始了解如何做工程,了解怎麼才可以有一個可重複的過程,讓你得到可預測的結果,並對人們真正有用。」據稱,「系統」訊息將作為護欄,防止GPT-4偏離方向
- Elvals
Brockman還提到了Evals。作為OpenAI致力於健全其模型的一個代表,Evals是一個被用於評估其人工智慧模型性能的新開源軟體框架。 Evals允許任何人對OpenAI回報其模型中的缺陷,以幫助指導改進。
Brockman說:「透過Evals,我們可以看到用戶關心的(用例)。以一種系統的形式,我們能夠對其進行測試。他還說:「我們(開源)的部分原因是因為,我們正在從每三個月發布一個新模型轉向不斷改進……當我們製作新的(模型)版本時,我們至少可以知道這些變化是什麼。」
- 上下文窗口的擴大
Brockman還談到了GPT-4的上下文窗口(context window),也就是模型在生成其他文本之前可以參考的文本。 Brockman表示,OpenAI正在測試GPT-4的一個版本,可以「記住」大約50頁的內容,或者說是普通的GPT-4在其「記憶」中所能容納的內容的五倍,且是GPT-3的八倍。
Brockman認為,擴大的上下文窗口會帶來新的、以前沒有探索過的應用,特別是在企業中。他設想了一個為公司建造的人工智慧聊天機器人,利用來自不同來源的背景和知識,包括跨部門的員工,以一種知識豐富但平易近人的方式回答問題。
Brockman說:「以前,該模型對你是誰、你對什麼感興趣等等沒有任何了解。但擁有這種(更多的)背景(知識)肯定會使它更有能力……它將能增進人們的能力。」
參考資料:Tech Crunch
瀏覽 1,199 次