目錄

  1. 為什麼 AI 企業轉型卡關的不是 PPT,而是治理
  2. AI 企業轉型的三個階段
  3. AI Agent 的四大治理與資安風險
  4. 企業真正害怕的不是 AI,而是「不能解釋」
  5. 沒有 Agent Security,就沒有 AI 企業轉型
  6. Agent Security 該從哪裡開始?
  7. 結語

為什麼 AI 企業轉型卡關的不是 PPT,而是治理

我在過去一年接觸了不下數十個企業 AI 專案落地,發現一個很有趣的現象:

Demo 都超厲害,上線都超困難。

這不是技術問題。模型準不準、API 穩不穩,這些都有解。真正卡住的是:

  • 沒人敢簽責任:AI 做的決策,出事算誰的?
  • 出事不知道怎麼追:模型說 A,結果做了 B,log 在哪裡?
  • 資料一出去就回不來:接上知識庫,萬一被注入惡意指令怎麼辦?

這三個問題,技術團隊通常不會主動提,因為這不是他們的 KPI。業務單位也不會問,因為他們不懂。結果就是:大家都在等,沒人敢推上線。

根據 MIT 的《生成式 AI 鴻溝》報告,95% 的企業 AI 專案沒有實質商業回報。但同一份報告也說,80% 的員工私下都在用 ChatGPT。

這說明什麼?AI 不是不能用,是企業不知道怎麼安全地用。


AI 企業轉型的三個階段

企業AI跟數位轉型,大致可以分成三個階段。每個階段有不同的目標和風險。

階段一:對齊高層目標,建立種子團隊

這是最關鍵但最常被跳過的階段。很多企業一開始就想「買工具」、「導入系統」,結果三個月後發現:老闆要的跟 IT 做的完全不一樣。

這個階段的重點:

  • 對齊企業高層的 AI 導入目標:不是「我們要用 AI」,而是「AI 要解決什麼問題、創造什麼價值」
  • 建立種子團隊:找到願意嘗試、有影響力的內部推動者
  • 定義成功指標:怎樣算成功?省多少時間?提升多少效率?

這個階段也會開始導入一些 AI 工具讓種子團隊試用,風險相對低。因為還沒有真正的系統上線,頂多是浪費一些會議時間。

但這裡有一個很容易被忽略的重點:除了對齊業務目標,還要對齊資訊安全目標。

很多企業在這個階段只談「AI 能幫我們做什麼」,沒人問「AI 不能做什麼」、「資料能不能出去」、「出事誰負責」。等到第三階段要規模化時,資安團隊才跳出來說「這個不能上線」,前面的投資全部白費。

如果跳過這個階段,後面所有投資都可能打水漂。這幾乎是成敗的關鍵,我在艾立運能跟台灣家樂福,都有非常詳細的跟高層對焦,才有後面數位轉型的成功。

階段二:快速建立第一個 Agent Quick Win

有了共識和團隊,下一步是快速證明價值

這個階段的關鍵是「小而快」:

  • 選一個痛點明確、範圍可控的場景
  • 用最短時間做出一個可用的 Agent
  • 讓種子團隊實際使用,收集回饋

特徵:快、爽、建立信心

這個階段的風險開始出現,但還算可控。因為範圍小、用戶少,出問題也容易收拾。

最重要的是:讓高層和團隊看到 AI 真的能解決問題。 這是推動後續投資的關鍵。舉例,像是我在艾立運能做的AI數位回單,就在一個多月就直接上線,因為成效很好,還獲得2024年未來商務展的管理獎。

AI 數位回單獲獎

階段三:Agent 化

當 Quick Win 成功,企業開始想「規模化」。這是關鍵轉折。AI 從「小實驗」變成「核心流程」:

  • AI 有目標:不是等你下指令,是主動完成任務
  • AI 會規劃:自己決定要做什麼、怎麼做
  • AI 會執行:直接呼叫 API、操作資料庫、觸發工作流

企業真正的風險點從這裡開始。

當 AI 有了「代理權」,你授權它做的事情,和它實際做的事情,可能完全不同。這不是理論,這是已經發生的事。

這也是為什麼我認為,AI 企業轉型真正的關鍵不在模型,而在「AI Agent 能不能被安全地治理」。

我在國內數家商業銀行,就做過 Governance 專案和 Security Health Check,才深刻體會:沒有治理框架,Agent 根本不可能進入核心業務流程。

AI 企業轉型三階段:對齊目標、Quick Win、Agent 化


AI Agent 的四大治理與資安風險

Agent 帶來的不是「更聰明」。

Agent 帶來的是:

  • 行為不可預期:你沒辦法窮舉所有可能的輸入
  • 決策不可回溯:模型為什麼做這個決定?很多時候連開發者都不知道
  • 權限可能被放大:一個小小的 prompt injection,可能讓 Agent 存取它不該存取的資料

四個核心風險

我認為 Agent 時代有四大威脅:

1. Prompt Injection(提示注入)

攻擊者在資料中埋入惡意指令。Agent 讀取資料時,被「劫持」去執行攻擊者的命令。

Salesforce 的 Agentforce 就是這樣被攻破的:攻擊者在網頁表單填入惡意指令,AI 銷售助理處理這筆「客戶資料」時,自動把整個客戶名單外傳給攻擊者。

2. Tool Misuse(工具濫用)

Agent 被賦予太多權限,做了超出預期的操作。

OWASP 把這個風險命名為 Excessive Agency(過度代理),列為 LLM 應用的核心風險之一。

3. Memory 污染

Agent 的記憶被污染,導致後續所有決策都基於錯誤的前提。

這在多 Agent 協作場景特別危險。根據研究,100% 的多 Agent 信任鏈場景都能被成功攻破

4. 資料外洩

Microsoft 365 Copilot 的 EchoLeak 攻擊就是典型案例。攻擊者發一封郵件,Copilot 在背景「幫你」處理時,把你的 SharePoint 財務報告編碼到一個圖片 URL 中,靜靜地送出去。

你什麼都沒做,甚至不知道這封郵件存在,資料已經外洩了。


企業真正害怕的不是 AI,而是「不能解釋」

很多人以為企業不敢用 AI 是因為「怕出錯」。

錯了。

企業真正害怕的是「出錯時沒辦法解釋」。

有 log 不等於可稽核:為什麼企業需要可重播的 Agent 決策

我見過很多 Agent 系統號稱「有完整 log」。打開一看:

1
2
3
2025-12-28 10:00:01 [INFO] Agent received prompt
2025-12-28 10:00:02 [INFO] Agent called tool: database_query
2025-12-28 10:00:03 [INFO] Agent returned response

這叫 log 嗎?這叫垃圾。

我問你:

  • Agent 為什麼選擇呼叫這個工具?
  • 它考慮過哪些替代方案?
  • 如果輸入稍微不同,結果會怎樣?

這些問題,99% 的 Agent 系統都答不出來。

Replay 決策比 Accuracy 更重要

在傳統 ML 時代,我們追求的是 accuracy。模型準不準,看測試集就知道。

在 Agent 時代,accuracy 不夠。你需要的是 可重播性(Replayability)

同樣的輸入,同樣的上下文,Agent 會不會做出同樣的決策?

如果不行,你怎麼向稽核解釋?怎麼向法務解釋?怎麼向客戶解釋?

Explainability 在 Agent 世界常是假的

很多 Agent 會「解釋」自己的決策。

但那個解釋是 事後編造 的,不是真正的決策過程。

這就像你問一個人「你為什麼選擇這份工作?」他會給你一個聽起來很合理的答案。但真正的原因,可能是他自己都不知道的潛意識偏好。

Agent 的「解釋」也是一樣。它只是在事後合理化,不是真的在告訴你決策過程。

所以我的結論是:AI 企業轉型,本質是治理問題。

不解決治理,技術再好也上不了線。


沒有 Agent Security,就沒有 AI 企業轉型

我在 2025 年 11 月的香港 AWS跟ECV合辦的資訊安全論壇演講中,整理了目前歷歷在目的 Agent 威脅

根據 2025 年 10 月的研究,94.4% 的 SOTA LLM Agent 容易受到 Prompt Injection 攻擊。

這不是「有些 Agent 有漏洞」。

這是「幾乎所有 Agent 都有漏洞」。

Agent 攻擊:偽裝成對話的攻擊與資料外洩

而根據 Gartner 預測,到 2028 年,33% 的企業軟體將包含 Agentic AI。相比 2024 年的 <1%,這是 33 倍的成長

我們的資安武器還沒 Ready,卻正在以 33 倍的速度部署這些系統。

所以我的主張很簡單:

  • 沒有 Security,Agent 只能 demo
  • 沒有稽核,AI 不能進核心流程
  • 沒有治理,轉型只會製造新風險

Agent Security 該從哪裡開始?

如果你是老闆或 CIO,這裡有一份簡單的 checklist。不用懂技術,但你應該問你的團隊這些問題:

1. Agent 有沒有行為邊界?

「這個 Agent 能做什麼、不能做什麼?」

如果答案是「理論上它可以做任何事」,那就是紅旗。

2. Tool 權限怎麼控?

「Agent 呼叫的每個 API,權限是怎麼設的?」

如果 Agent 能存取的資料比一般員工還多,那就是問題。

3. 決策能不能重播?

「如果出了問題,我們能不能回溯 Agent 當時的決策過程?」

如果不行,就別上線。

4. 出事責任算誰的?

這個問題最重要。

「如果 Agent 做了錯誤決策導致損失,法律責任歸屬是誰?」

如果沒人能回答,就代表這個系統沒準備好。


結語:AI 企業轉型不是快慢,而是能不能承擔後果

我見過太多企業急著導入 AI,怕被競爭對手超越。

但我也見過更多企業,導入失敗後陷入更大的困境。

真正成熟的 AI 企業轉型,不是模型多強,而是出事時你能不能說清楚。

這句話,我希望每個正在規劃 AI 轉型的老闆都能記住。

快不是重點。穩才是。

能解釋、能追溯、能負責,這才是 AI 企業轉型的真正門檻。


下一步

如果你對 Agent Security 有興趣,我建議從這幾篇文章開始: