砸年薪千萬台幣徵才!OpenAI急尋「備災總監」 應對資安等災難性風險
記者彭夢竺/編譯
OpenAI正公開招募一名新的高階主管,專職負責研究從資訊安全到心理健康等領域的新興AI相關風險。執行長Sam Altman坦言,AI模型已經開始帶來真實挑戰,急需專業人才協助制定防禦機制。

防範駭客攻擊與心理健康風險
Altman在社群平台X上發文承認,AI模型的能力正展現出雙面刃的影響。
- 資訊安全:模型強大到足以發現關鍵的系統漏洞,必須確保攻擊者無法利用這些功能,並提升整體網路防禦。
- 心理健康:必須關注模型對使用者心理的潛在負面影響。
- 生物安全:確保生物技術相關能力的釋出安全無虞。
- 自我提升系統:針對具備自我改進能力的運行系統建立安全信心。
- Altman呼籲有志之士加入,協助世界在賦予防禦者尖端能力的同時,防止攻擊者濫用技術。
高薪徵才 年薪55.5萬美元外加股權
根據OpenAI的職位描述,「備災總監」(Head of Preparedness)將負責執行公司的「備災框架」。該框架旨在追蹤並應對可能造成嚴重傷害的尖端模型風險。該職位的薪酬非常優渥,基本年薪標註為55.5萬美元(約新台幣1800萬元),且另有股權激勵。
OpenAI最早於2023年成立備災團隊,負責研究包含網路釣魚攻擊,甚至是更具預測性的核武威脅等「災難性風險」。
內部動盪 安全部門主管頻繁異動
這項徵才案背景正值OpenAI安全團隊的人事大洗牌。不到一年前,原備災總監Aleksander Madry被調任至AI推理相關職位,多位負責安全的高階主管也相繼離職或轉任非安全領域。
此外,OpenAI近期更新了其備災框架,提到若競爭對手的AI實驗室發布了未具備相同保護措施的高風險模型,公司可能會「調整」其安全要求,此舉引發業界對於安全競賽可能降級的擔憂。
法律壓力 ChatGPT被控引發心理危機
Altman特別提及心理健康,主因是生成式AI正承受越來越大的社會審查。近期有訴訟指控ChatGPT強化了使用者的妄想、加劇社交孤立,甚至導致自殘行為。OpenAI對此回應,公司持續提升ChatGPT辨識情緒困擾徵兆的能力,並致力於將受困使用者引導至現實世界的支援體系。
資料來源:TechCrunch
![]()





