前OpenAI員工爆料:公司像在「建造鐵達尼號」罔顧安全

編譯/黃竣凱

在最新爆料中,前OpenAI 安全員工 William Saunders ,將該組織的發展軌跡與鐵達尼號和阿波羅13號任務相比,表達了對其通用人工智慧 (AGI) 和產品發布方式的擔憂 。Saunders表示,基於對公司風險管理實踐的擔憂,他在 OpenAI 工作三年後決定辭職,認為公司在對待人工智慧(AI)安全上做得不夠。

前OpenAI員工將該組織的發展軌跡與鐵達尼號和阿波羅13號任務相比,認為公司在對待人工智慧安全上做得不夠 。
前OpenAI員工將該組織的發展軌跡與鐵達尼號和阿波羅13號任務相比,認為公司在對待人工智慧安全上做得不夠。(圖/123RF)

鐵達尼號與阿波羅計畫

據報導, Saunders表示,隨著他在 OpenAI 工作的時間越來越多,他覺得該公司領導者做出的決策更類似於「建造鐵達尼號」,將推出更新、更閃亮的產品做為優先事項,並可能會因安全措施不足而面臨災難性後果,因此他認為,該公司應該要像阿波羅太空計畫一樣,儘管野心勃勃,欲突破科學極限,但仍「仔細預測和評估風險」。

更多新聞:VPN也沒用!OpenAI 全面切斷中國 ChatGPT 和 AI 服務

敦促OpenAI制定「救生艇」措施

此外,他的擔憂還包括 OpenAI 是否準備好管理與 AGI 相關的潛在風險,並指出大規模網路攻擊或 AI 語言模型,帶來的意外後果等潛在狀況,主張進行更嚴格的研究和預防措施,敦促OpenAI在考慮AI相關災難時,要制定類似「救生艇」的保障措施,例如推遲新語言模型的發布,以便團隊可以研究潛在的危險。

開發AI「不可能」沒有風險

儘管Saunders 表示,「阿波羅計畫有足夠的準備,能夠適應情況,讓所有人安全返回,」他也指出,「該計畫確實也有自己的悲劇,但開發AGI或任何新技術不可能零風險。」阿波羅任務是在與俄羅斯冷戰太空競賽的背景下進行的,造成了數名嚴重傷亡,其中包括 1967 年在一次測試中,因電氣火災而喪生的三名 NASA 太空人。

AI的危險性

Saunders 原先在OpenAI的超級對齊安全團隊中工作,並領導了一個由四名員工組成的小組,致力於了解AI語言模型的行為方式,他表示,人類對此了解不夠,「若將來我們建構的AI系統比大多數人類更聰明,將需要一些技術來判斷這些系統是否隱藏了能力或動機。」

參考資料:Insider

瀏覽 743 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button