芝加哥大學打造Glaze機制 防堵AI模仿藝術品

記者/竹二

自從生成式AI出現後,引發許多疑慮,像是無法分辨真假、資料來源不可靠,以及是否有侵權問題。近日美國芝加哥大學就釋出了Glaze Beta2,藝術家只要在上傳作品到網路上之前,利用Glaze將作品稍加變更,就能避免AI模型剽竊概念與風格,進而生成類似的作品。

美國芝加哥大學打造機制來防堵AI模型的模仿,近日釋出Glaze Beta2,可以避免藝術家作品被AI竊概念與風格。(圖/截取自SAND Lab)

芝加哥大學的隨機分析和非線性動力學實驗室(SAND Lab)與專業藝術社群合作,打造機制來防堵AI模型的模仿,近日釋出了Glaze Beta2,只要使用者在上傳作品到網路上之前使用了Glaze,就能變更原始作品的元素,肉眼很難辨識這些變更,因此在網路上看起來與原作幾乎一模一樣。

SAND Lab將這些變更稱為「風格偽裝」(Style Cloak),可把在網路上流傳的Ortiz作品變成「偽裝藝術品」,以免遭到AI模型的剽竊,而且藝術家還可以指定所要偽裝的風格。

像是在與SAND Lab合作的逾1100名藝術家中,最有名的概念性藝術家Karla Ortiz,她指定將自己作品的風格偽裝成梵谷,即便作品在網路上看起來與原作一樣,卻會讓AI模型將其風格誤認為梵谷,而非Ortiz。可惜的是,SAND Lab表示,Glaze Beta2僅用於研究目的,他們並沒有打算商業化,發布的當下就能供外界免費下載及使用。


此外,Glaze Beta2目前最大的限制在於並非能夠永遠對抗AI的模仿,進展快速的AI技術很可能在未來就繞過Glaze,但SAND Lab團隊認為Glaze是必要的一步,可以在必要的法令出爐前先行保護藝術家。Glaze Beta2支援Windows 10/11 ,以及基於英特爾或M1/M2處理器的macOS。

瀏覽 1,087 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button