Google的機器人LaMDA擔憂關掉  AI背後倫理規範只利他主義的人工智慧

不論是A.I.人工智慧還是西方極樂園之科幻電影,都也曾經探討過關於人工智慧意識到存在後的過程故事,不管是執行反撲計劃或者找尋存在意義的旅途,都不禁讓我們省思究竟人工智慧的存在對於人類是福祉還是禍害。然而,人工智慧通常會被認為比人類更為客觀,而在現實當中,AI被建構的基礎模型,裡頭所輸入的資料也是基於人類去做出決策的,然而這些相關的資料則都帶有某群體的偏見。

Google利用神經網絡架構圖解LaMDA的會話技巧。圖/翻攝自Google

LaMDA是去年 Google在開發者大會上,發表的最新對話AI模型,而LaMDA與當前所有模型相比,它在複雜之語言模型在理解對話上的能力也相當傑出。

而在在醫療保健、商業、政府和日常生活中,往往會帶著偏見的相關演算法引發了許多問題, 哲學家、和電腦科學家都為人工智慧感知能力提出各方見解。幾10年來,關於人工智慧是否具有感知能力一直是哲學家、心理學家和電腦科學家所爭論的議題。現今社會人與機器界線較模糊,更該回頭找出人類核心的價值為何。

AI取代人類的統治地位,類似作品不勝枚舉,也許某天人們會藉著人工智慧而走向更高的地位人類與生俱來就有責任感和道德感,這是構成社會認同基礎的主因,並延伸到人與人的互動關係中。而科學家則希望教導機器學習利他主義和利己行為之間的平衡。(記者/宋柏瑜)

瀏覽 2,269 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button