強大但有限制    ChatGPT無法做到的5件事

編譯/莊閔棻

雖然ChatGPT 看似可以做任何事,但事實上它也有很多限制,並不能達到某些要求。自從 ChatGPT 和其他生成式人工智慧(AI)應用程式出現以來,人們就一直在探索可以用它們做什麼。不過,雖然該機器人非常強大,卻不是完全沒有缺點。為了讓大家對AI機器人有更深的了解,以下我們就將帶大家來看看5件ChatGPT做不到的事。

自從 ChatGPT 和其他生成式人工智慧(AI)應用程式出現以來,人們就一直在探索可以用AI做什麼。(圖/123RF)

1、不知道2022年1月後發生的事

基於該機器人的訓練數據停止在2022年1月,因此在這之後發生的事它可能都不清楚。ChatGPT自己就表示,「雖然我可以存取大量歷史資料和資訊,但我無法存取自訓練資料截止日期後發生的時事、新聞或更新。」

更多新聞:走過路過不要錯過!6 個高級 ChatGPT 提示技巧 人人都可成為大師

2、預測體育賽事或政治競賽的未來結果

雖然AI模型可用於進行預測,但基於變數太多,它可能無法準確分析出體育賽事或是政治競賽的結果。就體育賽事而言,團隊動力、傷病甚至天氣條件都可能會影響比賽結果;而在政治中,影響結果的變數更是多,包括公眾輿論、媒體報導和不斷變化的環境等。ChatGPT:「雖然歷史資料可用於訓練機器學習模型識別模式和相關性,但我無法解釋不可預見的事件、環境變化或可能影響結果的新變數。」

3、不會討論黨派政治議題

和人不一樣,ChatGPT作為人工智慧語言模型,基本上不能有自己的想法或是觀點。ChatGPT表示,它的目標是為使用者查詢提供客觀且資訊豐富的回應,而黨派政治議題可能會引起爭議和分裂,因此它必須避免宣揚特定的政治議程或觀點。此外,若是AI討論黨派政治問題也可能會被某些用戶視為有偏見或造成冒犯。

4、不總是準確

自推出以來,AI機器人就常常因為提供錯誤答案而被人詬病。基於模型生成答案的方式不可預測,是根據訓練資料生成的,因此並不總是準確。ChatGPT自己也說,「作為人工智慧語言模型,我的反應是基於已訓練到我的模型中的資料和資訊。 雖然我努力為用戶查詢提供準確且有用的答覆,但我也不能保證準確。」

5、無法執行實際操作

ChatGPT只能回答提問、生成文本和提供資訊,而無法執行需要具體行動的任務,包括操作硬體、執行電腦程式和進行金融交易等。基於ChatGPT僅提供理解和生成文本的能力,因此在實際應用中,若需要執行操作,就需要透過其他系統或機器人進行。

參考資料:zdnet

瀏覽 519 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button