能不能用AI聊天機器人文字創作?5項NG別踩雷

編譯/龔鈺翔

最近吵得沸沸揚揚的ChatGPT聊天機器人成了近來的發燒話題,而論文抄襲、隱匿、竄改事件,也跟著變成搜尋引擎的熱搜排行前幾名,而各國也隨之趕上分起較勁AI聊天機器人這塊大餅,如Google Bard、Jasper、YouChat等等的AI大戰隨之白熱化。

使用聊天機器人撰寫文字,很多時候AI找到的資料來源出處與真實性是無法查核的,到頭來還是需要自己去找尋。示意圖:RF123

然而它真的像網紅與外界說的那麼無所不能嗎?其實不見得,雖然方便,但聊天機器人的寫作方法並非完美,以下列出5項NG地雷點:

  1. AI聊天機器人無法對訊息事實查核

使用聊天機器人撰寫文字,很多時候AI找到的資料來源出處與真實性是無法查核的,到頭來還是需要自己去找尋。AI會搜索上億的在線資料,而找出最多人接受的結果來篩選答案,但答案不一定是正確的。

雖然聊天機器人一直在追求快速與準確,但它們不會重複檢查,因此對於研究思想上的架構、高階數學與醫學的解答經常做出不準確的回應。

  • 過度依賴會使你怠惰

相較於早期做研究或是查資料都需要透過書籍、紀錄片等找尋需要的資料,到了網路時代與現代的AI越來越簡化對過去研究的方法,你可以直接詢問聊天機器人。雖然這創新使其方便,但這科技會讓我們變得懶惰,最終會忽視最具挑戰與學習過程的階段,例如資料整合分析、架構研究等。

  • 容易產生普遍性答案

雖然人工智慧掃描上億以上的資料,但你與我對相同的主題下達關鍵字時,往往答案都是兩個相同類似的回覆,無論你重組語句語陳述問題,聊天機器人都只能以官腔方式回答甚至只是句子上的變化而已。

  • AI無法使用我們當下的語氣

雖然人工智慧有自然語言能夠判斷我們當下輸入文字的情緒,但是聊天機器人仍有局限性,導致無法完全複製人類的語氣。

  • 許多文字比對系統會偵測人工智慧生成的作品

目前製作出ChatGPT的OpenAI,發表能夠抓出人工智慧的偵測器,其原理也如同ChatGPT與GPT3一樣,都是透過網路公開資料搜尋,不斷進行機械學習,但就是因為透過網路公開資料搜尋,所以搜尋出來的答案就不是原創性,因此千萬部要冒險抄襲,你應該自己研究為主,人工智慧為輔來做搭配。

抄襲傷害自己的信譽也難擺脫怠惰,話雖如此,他也是有優點,就是提出創新力簡化工作流程,使繁瑣事務自動化。

資料來源:makeuseof

瀏覽 1,070 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button