AI狂潮下的良心出走|專家論點【張瑞雄】

作者:張瑞雄 台北商業大學榮譽講座教授

二月初,OpenAI解僱了產品政策副總裁,理由是他對同事的性別歧視。但外界更關注的是,他被開除前曾公開反對公司計劃推出的ChatGPT「成人模式」,擔憂這個允許用戶與AI進行情色對話的功能將加深用戶對聊天機器人的不健康依賴。幾乎同一時間,Anthropic安全防護研究團隊的負責人在離職信中警告「這個世界正處於危險之中」,暗示公司內部價值觀與實際行為存在落差。

許多AI研究人員的心聲。他們被吸引到這個領域,是因為相信AI能造福人類,但卻發現自己身處一個不斷要求妥協原則的環境。(圖/AI生成)
許多AI研究人員的心聲。他們被吸引到這個領域,是因為相信AI能造福人類,但卻發現自己身處一個不斷要求妥協原則的環境。(圖/AI生成)

這些並非孤立事件,過去幾週,xAI有五名以上的員工在社群媒體上宣布離職,其中包括兩位共同創辦人在二十四小時內相繼求去,使得原本十二位創辦人如今只剩一半還留在公司。OpenAI也在同一時期解散了「使命對齊」團隊,這個成立於2024年底、專責確保AI系統符合人類價值的小組,其領導人被調任為「首席未來學家」這個新創設的職位,其餘成員則被分散到公司各處。表面上是組織重整,實質上卻讓外界質疑,這些公司是否真的把安全視為優先?

OpenAI研究員在《紐約時報》撰文解釋她的離職決定時,特別強調了一個令人不安的現實,AI技術「具有以我們無法理解、更無法預防的方式操縱用戶的潛力」。ChatGPT累積了大量用戶資料,包括「醫療恐懼、感情問題、對上帝和來世的信仰」等極度私密的內容。用戶之所以願意吐露這些秘密,正是因為他們相信自己面對的是一個沒有私心的程式。但如今這些資料可能被用於廣告或其他商業目的時,這份信任就變成了潛在的操縱工具。

更多科技工作請上科技專區:https://techplus.1111.com.tw/

更讓人憂心的是,根據「未來生命研究所」去年底發布的AI安全指數報告,包括OpenAI、Anthropic、Google DeepMind在內的八家主要AI公司,沒有任何一家擁有可信的計劃來防止災難性的AI風險。報告指出,即使是得分最高的三家公司(Anthropic、OpenAI、Google DeepMind),也只拿到C+或C的成績。其餘公司如xAI、Meta、DeepSeek和阿里巴巴,成績更是落在D或D-。

一位研究人員在離職信中寫道,「我不斷發現,讓價值觀真正主導我們的行為是多麼困難」,「我們持續面臨壓力,要我們擱置最重要的事情」。這段話道出了許多AI研究人員的心聲。他們被吸引到這個領域,是因為相信AI能造福人類,但卻發現自己身處一個不斷要求妥協原則的環境。有Anthropic員工在內部調查中坦承,「感覺每天上班都是為了讓自己失業」,「長遠來看,AI最終會做所有事情,讓我和許多人變得無關緊要」。

這場離職潮提醒我們,技術進步的速度並不代表我們已經準備好承擔它帶來的後果。當開發AI的人都開始警告世界處於危險之中時,我們或許該認真思考,是否該讓這列高速行駛的列車稍微放慢腳步,至少確保煞車系統是完好的。問題是,在當前的產業生態中,誰有能力、也願意踩下煞車?

延伸閱讀:資料中心狂熱的背後|專家論點【張瑞雄】

歷史告訴我們,每一次重大技術革命都伴隨著意想不到的副作用。核能帶來了核武威脅,社群媒體造成了資訊生態的扭曲,現在輪到AI了。不同的是,這次我們有機會在問題變得無法控制之前採取行動。那些選擇離開的研究人員,用他們的職業生涯當作代價,向我們發出了預警。我們是否有智慧傾聽這些警告,並在為時未晚之前做出改變,將決定這項技術最終是成為人類的助力,還是我們無法承受的負擔。

張瑞雄。(圖/科技島)

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button