幫忙VS.背叛 如果人工智慧有知覺?

從蘋果的Siri和亞馬遜的Alexa虛擬助理,到吸塵器和自動駕駛車,再到自動化投資管理者和市場分析機器人,人工智慧在我們的日常生活中佔據了很大一部分。至今,當我們想到AI時,很多人因為科幻小說的渲染,都會聯想到長得跟人類很像的機器人,而且有一天會變得獨立並背叛我們。

近期華盛頓郵報刊登的報導引起軒然大波,在這則報導中,Google工程師布萊克.勒莫因(Blake Lemoine)表示,人工智慧聊天機器人:LaMDA,可能有感知能力。「在聊天時LaMDA就像是個七、八歲的小朋友。」這位早已和LaMDA深入對話無數次的工程師,這樣告訴華盛頓郵報。然而,東北大學社會科學與人文學副教授約翰.巴賽爾(John Basl)認為,這則報導不足以證明LaMDA擁有感知能力。他認為這個證據是基於LaMDA的語言能力,和當時所聊的話題而產生的。不過LaMDA被專門設計作為談話的機器人,能夠訓練優化其語言功能,並透過刺激,讓它的演算法製造出這樣的證據。「這個聊天機器人讓人類認為它是有感知能力的情況,說明了它的複雜性,但是它需要優化的是別的能力,而不是感知能力。」

幫忙VS.背叛,如果人工智慧有知覺?(圖/123RF)

感知能力有許多不同的定義,感知被定義為能夠感受、感覺到,且大多時候被認為是和智慧相關的能力。巴賽爾認為感知人工智慧至少能夠感覺到當下,且能夠有正面或負面的態度,像是痛覺、不想感受到痛覺,並擁有慾望。「我們能在動物世界中看到這些感知能力,像是狗並不會認為世界應該換一種運作方式,但是比起狗糧,牠明顯更喜歡小餅乾。」

這則華盛頓郵報的故事是模稜兩可的,為什麼勒莫因會將LaMDA和小孩做比較呢?他可能想表示這個聊天機器人擁有像小孩子一樣的智力,或是像小朋友一樣的生存能力和慾望。「這些都可能是不同的東西,我們能創造出會思考但沒有感覺的人工智慧,也能創造有感覺但不太會思考的人工智慧。」巴賽爾說道。

在人工智慧領域中,大部分的研究員由機械學家、人工智慧專家、哲學家、科技倫理和知覺科學家組成,他們已經在思考未來可能會遇到的問題,尤其是思想倫理方面。巴賽爾表示「如果我們創造出無比聰明的人工智慧,那它可能會殺光我們全部人。在對待人工智慧時,我們道德方面的思考並不足夠。」他認為人類很有可能會錯誤的對待人工智慧,因為他們認為它只是個機器人,甚至無法意識到人類自身的錯誤。

另一派想法則認為,感知型人工智慧是不可能存在的,因為一些宇宙物質的限制,或是我們對於意識認知的限制。目前沒有任何公司明確表示希望創造感知型人工智慧,包含大公司如:Google、Meta、微軟、蘋果和政府機關等。有些組織對於開發通用人工智慧(AGI)較感興趣。國際商業機器公司(IBM)表示,有一派關於人工智慧的理論中,機器能夠擁有如人類般的智慧,能夠有解決大小問題、學習、規劃未來的能力。

在創造和研發人工智慧之前,我們應該建立透明化、與政府或公家機關共享資訊,並研究如何監管的基礎,巴賽爾提醒道。他提倡建立一個跨專業的委員會,共同設立這些基礎後,再來監督人工智慧研究員,並評估研究計畫和結果。「在證據上我們很難界定,」巴賽爾說,「我們在意識的研究上並不足夠,也無法界定是否擁有意識的證據,而且我們也沒有建立任何基礎,但是這些才是研究的關鍵。」(編譯/李昀蓁)

文章來源:https://techxplore.com/news/2022-06-google-ai-sentient.html

瀏覽 23,416 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button