如果無法分辨真偽 使用 Gen AI 是道德的嗎?
編譯/戴偉丞
生成式人工智慧的使用似乎已經逐漸成為日常生活中一部分,但是當涉及學術工作時,使用生成式人工智慧所產出的圖片、文字乃至於程式碼,是否觸犯了違反學術倫理的邊線,是一件值得思考的事情。
生成式人工智慧潛在危機:偏見與錯誤
人工智慧容易受到不同類型的錯誤或是偏見影響,有些影響是顯而易見的,更值得深思的是,有些影響是極難察覺的。這樣的「原罪」確實掀起一個學術倫理的問題:研究人員是否仍應該使用生成式人工智慧工具?
關於人工智慧常見的錯誤,包括訓練人工智慧模型的基礎數據品質帶有偏見或是含有錯誤。此外,生成式人工智慧在產生內容時所隱藏的運算方法,更使得使用端無法精準判斷其生產的依據或是來源。甚且,也可能會因為生成式人工智慧模型理解的指令與演算法之間有所差異,進而產生錯誤。
更多新聞:運用ChatGPT寫報告是利或是弊?|專家論點【郭啟全】
研究人員應當捫心自問的兩個問題
現在的生成式人工智慧模型可以放大訓練數據以及其演算法中的偏見,並持續產出具有歧視性及不公義的結果,尤其是關於性別、種族、性向、民族、年齡與社經地位等議題。因此,在英國倫敦政經學院的這篇文章中,提出兩個使用生成式人工智慧工具的研究人員應該捫心自問的兩個問題:
- 我能總是於既定環境下驗證生成式人工智慧的準確性嗎?
- 我可以辨識出生成內容中的各種錯誤和偏見嗎?
如果回答並非全然肯定的話。,那麼接下來?文章繼續說道,如果答案為「否」或是「並非總是」,那使用者就應該開始考量其他替代方案,因為根據其使用工具當下的專業知識或判斷能力,可能是不足以維護研究的整體性以及可信度。無論是歐洲或美國對於研究行為與學術倫理的相關政府文件,均強調正確研究方法對於學術倫理的重要性。
更多新聞:該怎麼看待即將出爐的「人工智慧基本法」草案?|專家論點【台灣科技媒體中心】
在使用生成式人工智慧作為學術研究工具時,無論是否為研究人員,都應該理解到,鑑於生成式人工智慧在研究及其他領域的廣泛運用,促進其負責任和謹慎的使用,對於防止錯誤和偏見加劇至關重要,因為錯誤和偏見會削弱全體社會對於科學的信任。
資料來源:LSE Impact Hub、ALLEA、NIH
瀏覽 400 次