聾啞創作者,如何用 AI 拿回創作的主控權?|專家論點【黃婉中】
作者:黃婉中(雲端架構師)
如果有一天,你發現一個完全不懂程式、甚至連母語書寫都有困難的人,竟然能自己開發出一套創作工作流和 AI 助手。你的第一直覺是什麼?

這不是科幻劇本,而是最近在韓國真實發生的故事。
一個關於「重新連線」的故事
故事的主角是 Min-ji So,她是一位聾啞畫家,在 Instagram 上用漫畫分享她作為聾啞母親養育聽覺正常孩子的日常生活。
更多科技工作請上科技專區:https://techplus.1111.com.tw/
對我們來說,韓語或中文是母語,但對聾啞人士而言,手語才是他們的第一語言。書寫文字(如韓文或中文)對他們來說更像是「第二外語」。
Min-ji 在創作網漫時,最感到挫折的是無法精準掌握文字的細微差別。例如韓語中「我不知道」與「難道你不知道嗎?」在語氣上的微妙差異,常讓她卡關。
過去,她必須依賴真人編輯幫她修稿。但這產生了兩個問題:第一,必須等真人回覆,創作流會中斷;第二,創作能不能往下掌握在別人手裡,讓人感到「失去自主權」。
後來,她參加了微軟的 AI 計畫,利用 Copilot 開發了一個「網漫分鏡助手」,一個 AI Agent。當她輸入簡單的意圖,AI 會反過來問她:「你想表現的是衝突感嗎?」、「要不要試試用劇本式的台詞來強化張力?」
Min-ji 說:「感覺就像多了一位創意助理。」
觀察一:意圖導向架構(Intent-based Architecture)
從這件事,我看到的第一個技術轉型是:我們正在告別 GUI(圖形介面),迎向 Intent(意圖)。
過去30年,介面設計(UI/UX)是軟體開發的重點。我們設計了各種按鈕、選單、下拉視窗,假設使用者是「標準人」,訓練他們學會我們的系統邏輯。如果使用者有特殊需求(比如視障或聽障),我們就補一塊「無障礙(Accessibility)」的補丁(Patch)。
但 Min-ji 的案例告訴我們,未來的架構將會是 「去介面化」 的。 使用者不再需要去適應軟體,而是軟體要具備「語義層(Semantic Layer)」來理解使用者的意圖。
未來的系統前端可能只是一個對話框或語音窗口,但後端需要強大的 Orchestration(編排)能力。系統必須能從模糊的語義中解構出邏輯,並驅動下層的 API。
這就是所謂的「意圖導向架構」。當系統能理解意圖,原本屬於「邊緣案例」的弱勢需求,就會自動變成系統的「原生能力」。
觀察二:將專家服務「Serverless 化」
第二個觀察是關於能力解耦(Decoupling)。
在 Min-ji 的舊流程中,「編輯與校對」是一個中心化的資源,必須仰賴特定的人力。這在系統設計上叫作「單點故障(SPOF)」,如果編輯請假,創作就癱瘓。
但在 AI 時代,這種「專業能力」正在被 SaaS 化與 Serverless 化。 以前我們談 Serverless 是指運算資源(CPU/RAM)按需分配,現在談的是「能力(Capability)」按需分配。
編輯、法律諮詢、代碼審查、數據摘要,這些原本壟斷在專家手中的隱性知識,現在被封裝進了大型語言模型(LLM)中,成為可以隨時呼叫的 API。
這對企業軟體架構有巨大的衝擊。想像一下,未來的 ERP 系統不再需要請會計師一一核對,而是由一個「會計 Agent」自動偵測數據異常並給出建議。這種「能力的去中心化」讓個體(如 Min-ji)擁有了以前只有大型工作室才有的「智庫」。
不只是身障者,我們每個人都在受益
你可能會說,我不是聾啞人士,這跟我有什麼關係? 其實,我們或身邊的人在某些時刻都是「有障礙者」。
- 過動症(ADHD)者:在冗長的視訊會議中難以集中,AI 摘要讓他更專注。
- 口吃者:在重要簡報前,AI 語音修飾工具能將斷續的語音轉化為流暢的音軌。
- 菜鳥工程師:在面對複雜的 Legacy Code 時,AI Agent 幫他版本升級。
結語
當 Copilot 或是各種 AI Agent 成為標準配備,SaaS 產品的競爭點漸漸從「功能多寡」,轉向「理解深度」。
從架構師的角度來看,AI 賦能(Enablement)的核心價值在於擴展人類的能力邊界。它就像就像「數位義肢」一樣,接上斷掉的連線,幫助我們前往更多被遺忘的角落。

![]()






