台灣人工智慧基本法 |IT 主管必讀的 與資安合規建議
目錄
2025 年 12 月 23 日,台灣立法院三讀通過《人工智慧基本法》。在我的朋友圈內,幾乎沒有任何的火花,但是我個人覺得很重要,所以花了一點時間來看看這個法律對我們 IT 主要影響有啥?
除了台灣正在推動的《人工智慧基本法》,另一個受到全球關注的重要治理框架是 EU AI Act(歐盟人工智慧法案)。該法案對 AI 系統風險分級、責任制度與高風險應用的要求提供了較詳細的實務標準,被許多跨國企業作為合規策略的參考依據。把 EU AI Act 的風險分級思維與台灣基本法的原則式規範結合,能幫助 IT 與資安團隊在設計 AI 系統時更具可操作性與可追溯性。
相比於 EU AI Act ,我看了一下台灣的基本法,根據台灣法律界普遍認為,《人工智慧基本法》屬於原則性框架立法,重點不在於技術細節,而在於企業是否能建立可被追溯與問責的治理機制(參考 行政院發布《人工智慧基本法》草案 — 理律法律事務所解讀),所以裡面沒有太多具體執行事項,但是有七大核心原則。
七大核心原則
根據 數發部對《人工智慧基本法》的政策說明裡面講到七大核心原則:
- 永續性
- 人類自主性
- 隱私保護及資料治理
- 安全性
- 透明及可解釋性
- 公平性
- 可問責性
我們這邊選幾個跟 IT 人比較相關的來拆解。
對 IT 人的影響
資訊安全:AI 不能成為新的資安破口
法條原文:
四、安全性:人工智慧研發與應用過程,應建立資安防護措施,防範安全威脅及攻擊,確保其系統之穩健性及安全性。
邏輯為:你用 AI,不可以變成新的資安風險來源。
從 IT 實務角度,要達到這個原則,可能需要:
- 權限控管:AI API / Agent / Chat 要有 Auth、RBAC(Role-Based Access Control),不能所有人看到所有 prompt / output
- 防止濫用:設計「煞車系統」——Human in the Loop(人類介入機制),防 Prompt Injection、Jailbreak、Agent 亂下指令
- 資料隔離:企業 Chat ≠ 全公司共用大腦,要有 Context 隔離——不同部門、不同專案的對話記錄與訓練資料要分開,避免 A 部門的機密被 B 部門的 prompt 意外撈出來
- 了解針對新型攻擊,並且加以防護:AI Agent 面臨的資安威脅跟傳統系統不同(Prompt Injection、Tool Misuse、Memory Poisoning 等),需要專門的防護策略。

舉例 Microsoft 365 Copilot “EchoLeak”,你早上打開 Outlook,看到一封看似正常的會議邀請郵件。你甚至還沒決定要不要讀它。但你的 Copilot 已經被劫持,在背景「幫你」洩漏資訊,詳見:AI Agent 資安:遊戲規則已經改變
問責制:AI 不能背鍋
法條原文:
七、可問責性:確保人工智慧研發與應用過程中不同角色承擔相應之責任,包含內部治理責任及外部社會責任。
AI Agent 最大的問題就是:「那是 AI 算的,不是我決定的。」,這句話未來 在法律上不被接受。
IT 實務上要做到:

- 指定 AI 系統負責人:每個 AI 功能都要有明確的 owner,這個人是法律實體,出事時由他負責。你可以設計自動化的「AI 員工」,但必須有真人管控
- 事前定義流程與責任:誰決定用這個 AI?誰負責風險評估?出事誰對外說明?這些要在上線前就定義好,不是出事才找人
- 設計審核節點:高風險功能要有人工確認點,不能全黑箱自動跑——比如 AI 產出報告後要有主管簽核、AI 推薦決策後要有人工覆核才能執行
- 保留決策紀錄:「模型自己算錯」「AI hallucinate」「這是第三方模型」都不能免責,所以你要有決策記錄 Audit Trail,證明當時人類做了什麼審核
隱私保護:資料最小化原則
法條原文:
三、隱私保護及資料治理:應妥善保護個人資料隱私,避免資料外洩風險,並採用資料最小化原則;在符合憲法隱私權保障之前提下,促進非敏感資料之開放及再利用。
這條對 IT 人來說很實際。「資料最小化原則」(data minimization)意思是:只蒐集你真正需要的資料,不要多拿。
實務上要注意幾個面向:
Input(輸入端):
- 不要把所有資料都丟給 AI:訓練或微調模型時,先過濾掉不必要的個資
- RAG 資料來源要管控:企業知識庫接 AI 時,要確認哪些文件可以被檢索、哪些不行
- 第三方 API 的資料流向:這不是叫你不要用雲端 API,但至少要確認流程中的機敏資料會不會外流——哪些欄位會送出去、看一下雲端 API 的宣告,看看對方會不會拿去訓練
Output(輸出端):
- 控制 AI 輸出的儲存與分享:AI 產出的內容存在哪裡?誰可以看?會不會被其他系統二次利用?
- 防止 AI 「說太多」:AI 不該把個資或機密資訊回答出來,prompt 要好好設計,限制 AI 不該回答的內容範圍(例如:不回答薪資資訊、不透露客戶個資、不洩漏內部機密)
輸入/輸出攔截機制:
- 輸入攔截:在使用者送出 API 前加一道檢查——偵測身分證字號、信用卡號、密碼等機敏格式,發現就攔截或警告
- 輸出攔截:在 AI 回應送給使用者前再檢查一次——避免模型「不小心」把機敏資料吐出來
不用做到 100% 準確,但至少能擋掉明顯的失誤。
透明性:不能用「AI 很複雜」拒絕解釋
法條原文:
五、透明及可解釋性:人工智慧之產出應做適當資訊揭露或標記,以利評估可能風險,並瞭解對相關權益之影響,進而提升人工智慧可信任度。
法律要的不是公開模型參數或 prompt,實務上要這麼做:
- 告知 AI 參與:在 UI 上標記「此內容由 AI 產生」或「AI 輔助判斷」,讓使用者知道這是 AI,不能偷偷用
- 能解釋決策過程:記錄 AI 用了哪些資料類型、做了什麼判斷、有沒有人工介入——出事時要能拿出來說明
- Audit Trail:從使用者輸入、AI 處理、到最終輸出,整個流程都要有 log 可追溯。不一定要像歐盟 AI Act 那樣逐筆記錄,但至少要能還原「當時發生什麼事」。
這也是為什麼我在企業級地端 LLM 系統架構裡花了很多篇幅設計兩層式的 Log 機制——Gateway 層記錄所有請求,Application 層記錄業務邏輯決策。

IT 主管現在該做什麼?

認清法律核心:清晰的責任歸屬
重點在於建立明確的責任架構與透明的問責機制。
具體做法:
- 每個 AI 系統指定明確的負責人(Owner)
- 定義「誰決策、誰審核、誰負責」的角色分工
- 建立出事時的溝通與對外說明流程
立即行動:盤點現況 + 建立 Audit Trail
這是成本最低、效益最高的起點。確保所有 AI 決策過程具備可追溯性,為合規奠定基礎。
Quick Win 清單:
- 盤點目前公司內部有哪些 AI 應用(包括員工私下使用的)
- 為現有 AI 系統加上基本 logging(輸入、輸出、時間戳記)
- 建立 AI 使用的內部規範(哪些可以用、哪些要審核、哪些禁止)
最終目標:AI 治理內化為技術文化
不是為了應付法規,而是使負責任的 AI 成為企業 DNA 的一部分,推動長期創新與信任。
文化建設方向:
- 把「AI 決策要可追溯」變成團隊共識,像 code review 一樣自然
- 定期做 AI 風險評估,不是一次性合規檢查
- 鼓勵團隊主動回報 AI 使用中的問題與風險
如果你需要一個有機會合規 Agent IT 架構的草圖跟方向,歡迎參考我之前的作品企業級地端 LLM 系統架構。

「AI 可以是黑箱,但『責任鏈』不能是黑箱。」
常見問題 Q&A
Q: 這部法律什麼時候生效?現在就要合規嗎?
法律已於 2025/12/23 三讀通過,但這是「基本法」,不是執行細則。目前沒有具體罰則,也沒有強制合規時程。但建議現在就開始準備——等專法出來再動手,通常會來不及。
Q: 我們公司只是「用」AI,不是「開發」AI,也需要遵守嗎?
是的。法條中的「應用」包含使用第三方 AI 服務。你用 ChatGPT 處理客戶資料、用 AI 做信用評估、用 Copilot 寫程式——這些都算「應用」,都在法律涵蓋範圍內。
Q: 用 ChatGPT / Claude 這類雲端 API 會違法嗎?
不會自動違法,但你要能交代:資料流向哪裡、有沒有機敏資料外流、出事時誰負責。重點不是「用不用雲端」,而是「你有沒有管控機制」。
Q: 中小企業沒有資源做完整的 AI 治理,怎麼辦?
從最小可行方案開始:(1) 盤點目前用了哪些 AI、(2) 指定每個 AI 應用的負責人、(3) 加上基本的使用 log。這三件事不需要花大錢,但出事時能讓你有東西可以交代。
Q: AI 產出的內容出錯,責任在誰?
在「決定使用這個 AI 產出」的人。法律不接受「AI 算錯不是我的錯」這種說法。所以高風險決策要有人工審核,不能全自動。
Q: 這部法律跟 GDPR / 個資法有什麼關係?
AI 基本法的「隱私保護及資料治理」原則,跟既有的《個人資料保護法》是互補關係。AI 基本法提供原則框架,具體的個資處理規範還是要看個資法。兩者都要遵守。
附錄:法條原文
法條原文:
人工智慧之研發與應用,應在兼顧社會公益及數位平權之前提下,發展良善治理,並遵循下列原則:
一、永續性: 應兼顧社會公平及環境永續,降低可能之數位落差,使國民適應人工智慧帶來之變革。
二、人類自主性: 應支持人類自主權,尊重人格權等個人基本權利與文化價值,並確保人為介入監督,落實以人為本並尊重法治及民主價值觀。
三、隱私保護及資料治理: 應妥善保護個人資料隱私,避免資料外洩風險,並採用資料最小化原則;在符合憲法隱私權保障之前提下,促進非敏感資料之開放及再利用。
四、安全性: 人工智慧研發與應用過程,應建立資安防護措施,防範安全威脅及攻擊,確保其系統之穩健性及安全性。
五、透明及可解釋性: 人工智慧之產出應做適當資訊揭露或標記,以利評估可能風險,並瞭解對相關權益之影響,進而提升人工智慧可信任度。
六、公平性: 人工智慧研發與應用過程中,應盡可能避免演算法產生偏差及歧視等風險,不應對特定群體造成歧視之結果。
七、可問責性: 確保人工智慧研發與應用過程中不同角色承擔相應之責任,包含內部治理責任及外部社會責任。
相關說明:
一、 我國發展人工智慧應衡平創新發展與可能風險,以回應國內人文及社會所需。爰參考國際協議及各國相關政策方針、法規或行政命令,訂定具有指標與引導功能之基礎準則,以作為人工智慧研發與應用之基本原則。
二、 人工智慧研發與應用應兼顧社會公平與環境、經濟之協調發展,以追求對人類及地球有益之結果,從而促進永續發展(sustainable development),爰參考G7廣島AI國際行動規範(Hiroshima Process Code of Conduct for Organizations Developing Advanced AI Systems),於第一款定明永續性原則。
三、 人工智慧研發與應用應在人工智慧系統之整個生命週期中尊重法治、人權及民主價值觀,為此,參考經濟合作暨發展組織(OECD)二○一九年公布之人工智慧建議書(OECD Recommendation on Artificial Intelligence),於第二款定明人類自主性原則,應支持人類自主權(Human Autonomy),並尊重人格權(含姓名、肖像、聲音)等個人基本權利與文化價值,確保以人為本之基本價值。此外,為避免人工智慧傷害人類自主性或對人類造成不利影響,於人工智慧發展過程中,須人為介入監督,參考歐盟二○一九年可信任人工智慧倫理指引(Ethics Guidelines for Trustworthy AI),相關監督可透過各決策週期人為干預(human-in-the-loop, HITL)、系統設計週期中進行人為干預並監控系統運作(human-on-the-loop, HOTL)或監督人工智慧整體活動,以決定在何種情況下如何使用該系統(human-in-command, HIC)等治理方式進行監督。
四、 人工智慧發展仰賴大量資料,惟資料之蒐集、處理及利用,能否確保資料安全與個人資料隱私,係目前人工智慧發展最多討論與疑慮之議題。爰參考美國二○二二年AI權利法案藍圖(Blueprint for an AI Bill of Rights),於第三款定明隱私保護及資料治理原則,人工智慧研發與應用,應妥善保護個人資料,避免資料外洩風險,並採用資料最小化原則,而所謂資料最小化原則(data minimization),係指各階段蒐集之個人資料,皆須適當且具相關性,並僅止於符合資料處理目的所需之程度。同時,在符合憲法隱私權保障之前提下,促進非敏感(非個人或機敏)資料之開放及再利用。
五、 人工智慧研發與應用應確保系統穩健性(robustness)與安全性,爰參考美國二○二二年AI權利法案藍圖及新加坡二○二四年生成式AI治理架構(Model AI Governance Framework for Generative AI),於第四款定明安全性原則,以防範人工智慧有關安全威脅與攻擊。
六、 人工智慧所生成之決策對於利害關係人有重大影響,須保障決策過程之公正性。人工智慧研發與應用階段,應致力權衡決策生成之準確性,並提升可讓使用者及受影響者理解其影響及決策過程之可解釋性,兼顧使用者及受影響者權益。爰參考歐盟二○一九年可信賴AI倫理準則(Ethics Guidelines for Trustworthy AI),於第五款定明透明及可解釋性(Transparency and Explainability)之原則。
七、 人工智慧研發與應用須公平、完善,且演算法應避免產生偏差或歧視之結果,爰參考美國二○二二年AI權利法案藍圖,於第六款定明公平性原則(Fairness),強調應重視社會多元包容,避免產生偏差與歧視等風險。
八、 研發與應用人工智慧應致力於建立人工智慧應用負責機制,以維護社會公益。爰參考新加坡二○二四年生成式AI治理架構(Model AI Governance Framework for Generative AI)有關對於人工智慧開發運用之生命週期中,應確保不同角色(如開發者、部署者、最終使用者等)能承擔相應之責任等精神,於第七款定明可問責性原則(Accountability)。
延伸閱讀
免責聲明: 本人為 IT 專業背景,並非法律專業人士。本文是以我自己對法條的認知,加上 AI 輔助整理而成,目的是幫助 IT 人理解法規對技術實務的影響。如果你的企業需要正式的合規評估或法律意見,建議還是找適合的法務合作夥伴。
本文基於 2025 年 12 月 23 日通過的《人工智慧基本法》撰寫。後續專法、細則出台後,實務要求可能調整。