人工智慧的抄襲問題|專家論點【張瑞雄】

作者:張瑞雄(前北商大校長、叡揚資訊顧問)

AI已經徹底改變了內容的創作,無論是文字還是視覺內容。生成式AI系統,如ChatGPT、Midjourney和DALL-E,能夠產生極為類似人類的內容。但是這種能力引發了關於侵犯版權、抄襲和未經授權使用創意作品的法律、道德上的擔憂。

核心問題在於許多這些AI系統都是在包含有版權材料的大規模數據集上進行訓練的,很可能是在沒有許可或授權的情況下進行的。Midjourney和DALL-E清楚地表明它們是重新設計商標電影角色以及保留了屬於人類創作者的藝術風格。它們高品質的輸出表明它們在訓練過程中成功地「記憶」了這些受版權保護的作品,使它們能夠在新的作品再現,但是這可能使AI開發者和用戶都面臨法律風險。

比如紐約時報對OpenAI提起的訴訟,主張這些近似複製品構成了侵犯版權。原告辯稱,AI平台將其作品重新利用以獲取商業利益,直接與創作者競爭,「合理使用」情況不適用於對受保護作品的模仿。

如果電影公司、遊戲發行商和其他擁有廣泛認可的知識產權的大型媒體公司都提起訴訟,這將是生成式AI的夢魘。這引起了過去新科技打擊創意行業的衝突的回憶,最出名的是Napster的點對點音樂分享,法庭最終干預以維護創作者的權利。

有關誰應對侵犯版權負責的問題還存在疑問,是AI系統開發者還是最終用戶?演算法是否可以在沒有意圖或沒有個別作者身份的情況下侵犯版權?還有一些關於真正要解決問題的方案的爭論,例如AI系統如何知道其輸出已經侵權,以及重新訓練模型以避免爭議的高昂成本。目前法律上存在很少的明確性,這意味著那些商業上使用和開發生成式AI的人面臨著很高的風險。

建議主要集中在AI開發中進行更嚴格的監控,鼓勵技術改進以提高解釋性,以及對系統輸出進行人工審查。所以人工監管和透明化仍然是過渡時期的首要做法,用戶必須自己發布基於AI的作品的風險並採取最佳道德實踐。

總之像DALL-E和ChatGPT這樣的系統所發展的令人驚嘆的生成能力似乎直接源於在它們的訓練階段中使用大量受版權保護的作品,它們重新塑造出的角色、風格和措辭的能力幾乎達到了全面的「記憶」效果。除非獲得許可、授權或在不使用受保護數據的情況下進行重新訓練AI,否則這種商業模式將面臨廣泛的訴訟風險。

與此同時,AI領域必須提高解釋性,並對其訓練資料透明方面負起責任,終端用戶也要在審核可能是抄襲的內容方面也要承擔責任。生成式AI系統目前在版權和道德方面運作在模糊不清的狀態中,解決這些在法律、商業實踐和公眾意識方面的各種問題仍然是在AI未來發展中重要關鍵。

瀏覽 999 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button