壞處多多!生成式AI未來可能傷害我們的 5 種方式
編譯/莊閔棻
近年來,由於人工智慧(AI)發展迅速,也導致許多新型的犯罪方式,其中包括假新聞、深度偽造和道德問題也都漸漸開始浮現。很多有心人士就利用AI生成各種虛假內容欺騙大眾,讓很多人信以為真,造成社會問題。此外,基於AI是從網路上透過別人創建的內容學習並產出的,因此也引發很多道德問題。以下我們就將帶你看看未來AI可能會危害我們的5種方式,讓大家對AI的害處有更多的了解。
- 假新聞
生成式AI可用於建立與真實新聞無法區分的假新聞文章。 假新聞會影響輿論、破壞民主並煽動暴力。 如,生成式AI可用於編造有關政治候選人、自然災害或健康危機的假故事,並削弱人們對新聞業和資訊來源的信任。
更多新聞:AI 造假無所不在!一文看懂辨別方法
- 深度偽造Deepfakes
生成式AI可用於創建Deepfakes,也就是合成影片或圖像,讓某人看起來像是正在做或說他們從未做過或說過的事情。Deepfakes 可以用來冒充普通人、政治人物或名人,並可能會被用於勒索、誹謗或欺騙他人。
- 網路攻擊
生成式AI可用於發動比以往更複雜和有效的網路攻擊,而網路攻擊可能會損害數位系統和網路的安全性和功能。如,生成式AI可用於建立針對特定目標或場景客製化的網路釣魚電子郵件、惡意軟體或勒索軟體,並造成財務損失、營運中斷或物理損壞。
- 道德問題
生成式AI可能引發挑戰我們價值觀和原則的道德問題。道德問題會影響生成內容的品質和公平性。 如,生成式AI可能會創造違反人權或規範的有偏見、不準確或有害的內容。 此外,道德問題也會影響生成內容的所有權和責任。如,生成式AI可能會造成關於誰擁有、控制或對生成的內容負責的模糊或衝突的情況。
- 社會影響
生成式AI可以產生影響我們的行為和人際關係的社會衝擊。 社會衝擊則會對我們的創造力和身分造成影響。如,生成式AI可以創造比人造內容更有吸引力或更容易上癮的內容,這可能會降低我們創建原創內容的動機或能力。此外,生成式AI還可以創造比人造內容更現實或更令人信服的內容,這會影響我們對自己的感知或表達。而社會衝擊也會影響我們的隱私和對他人及事物的信任。
參考資料:Analytics Insight
瀏覽 5,367 次