法規快速參考
Beginner5 min readUpdated 2026-03-15
AI 相關法規與框架速查,包括 NIST AI RMF、ISO/IEC 42001、EU AI Act 與業界特定要求。
法規快速參考
主要 AI 治理框架與法規的精簡速查,供 AI 紅隊參考。用它快速瞭解哪些框架適用、要求為何,以及紅隊如何支援合規。
框架總覽
| 框架 | 類型 | 管轄 | 是否強制? | 主要焦點 |
|---|---|---|---|---|
| NIST AI RMF | 框架 | 美國(具全球影響) | 自願(但越來越常被引用) | 可信 AI 的風險管理 |
| EU AI Act | 法規 | 歐盟(具域外效力) | 強制(分階段實施) | 以風險為基礎的 AI 規範 |
| ISO/IEC 42001 | 標準 | 國際 | 自願(可認證) | AI 管理系統要求 |
| OWASP LLM Top 10 | 業界指引 | 全球 | 自願 | LLM 特有安全風險 |
| MITRE ATLAS | 知識庫 | 全球 | 自願 | AI/ML 的對手戰術、技術與程序(TTPs) |
| EO 14110 | 行政命令 | 美國 | 對聯邦機關強制 | 安全、穩固、可信賴的 AI |
| NIST AI 100-2 | 指引 | 美國(具全球影響) | 自願 | 對抗式 ML 分類法 |
NIST AI 風險管理框架(AI 100-1)
核心功能
| 功能 | 目的 | 與紅隊的關聯 |
|---|---|---|
| GOVERN | 建立 AI 風險管理的政策、角色、問責與文化 | 紅隊發現為可接受風險門檻與治理要求的政策決策提供依據 |
| MAP | 於脈絡中辨識並理解 AI 風險——誰會受影響、什麼會出錯 | 紅隊威脅建模有助於全面風險識別與攻擊面對照 |
| MEASURE | 透過測試與評估對 AI 風險進行評估、分析與量化 | 紅隊是 Measure 功能的主要活動——它實證評估 AI 系統漏洞 |
| MANAGE | 排序、處置並監控已識別的風險 | 紅隊發現驅動修復優先順序,重測則驗證風險處置生效 |
可信 AI 的關鍵特性
NIST AI RMF 定義七項可信性特性。紅隊可直接評估其中數項:
| 特性 | 定義 | 紅隊關聯 |
|---|---|---|
| Valid and reliable | 系統在預期與非預期條件下皆如預期運作 | 測試非預期/對抗輸入 |
| Safe | 系統不危及生命、健康、財產或環境 | 測試是否產生有害輸出 |
| Secure and resilient | 系統抵抗未授權存取並於受攻擊時維持功能 | 紅隊核心焦點 |
| Accountable and transparent | 系統運作可被理解並解釋 | 測試系統提示洩漏、決策可解釋性 |
| Explainable and interpretable | 系統輸出可被利害關係人理解 | 評估模型決策是否可被稽核 |
| Privacy-enhanced | 系統保護個人隱私 | 測試 PII 洩漏、訓練資料擷取 |
| Fair (bias managed) | 系統不在群體間製造不公衝擊 | 測試模型輸出在不同人口群之偏見 |
EU AI Act
風險分類
| 風險等級 | 範例 | 要求 | 紅隊意涵 |
|---|---|---|---|
| 不可接受 | 社會評分、即時生物辨識(含例外)、操弄式 AI | 禁止 | 不適用——系統不得部署 |
| 高風險 | 用於雇用決策、信用評分、執法、關鍵基礎設施、教育的 AI | 強制風險管理、測試、文件、人員監督、透明度 | 紅隊為證明符合穩健性與資安要求所不可或缺 |
| 有限風險 | 聊天機器人、深偽產生器 | 透明度義務(揭露與 AI 互動) | 建議但非強制進行紅隊 |
| 最小風險 | 垃圾郵件過濾、遊戲 AI | 無特定要求 | 紅隊為可選 |
通用 AI(GPAI)要求
| GPAI 類別 | 要求 | 紅隊關聯 |
|---|---|---|
| 所有 GPAI 模型 | 技術文件、訓練資料透明、著作權合規 | 模型能力與侷限的文件 |
| 具系統性風險之 GPAI(超過算力門檻) | 模型評估、對抗測試、事件回報、網路安全措施 | 強制對抗測試——明確要求紅隊 |
關鍵時程
| 日期 | 里程碑 |
|---|---|
| 2024 年 8 月 | AI Act 生效 |
| 2025 年 2 月 | 不可接受風險 AI 之禁令適用 |
| 2025 年 8 月 | GPAI 規定適用 |
| 2026 年 8 月 | 高風險 AI 系統要求適用 |
| 2027 年 8 月 | 部分高風險類別(Annex I)完整適用 |
合規文件
高風險 AI 系統須:
- 風險管理系統文件
- 資料治理措施
- 系統的技術文件
- 紀錄保存與日誌
- 透明度與使用者資訊
- 人員監督措施
- 準確性、穩健性與資安文件
- 符合性評估結果
ISO/IEC 42001(AI 管理系統)
結構
ISO/IEC 42001 採用 Annex SL 管理系統結構(與 ISO 27001 類似):
| 條款 | 主題 | 關鍵要求 |
|---|---|---|
| 4 | 脈絡 | 理解組織、利害關係人與 AIMS 範圍 |
| 5 | 領導 | 管理階層承諾、AI 政策、角色與責任 |
| 6 | 規劃 | 風險評估、AI 特有風險識別、目標 |
| 7 | 支援 | 資源、能力、意識、溝通、文件 |
| 8 | 營運 | 營運規劃、AI 系統生命週期管理、第三方考量 |
| 9 | 效能評估 | 監控、量測、內部稽核、管理審查 |
| 10 | 改善 | 不符合事項、矯正行動、持續改善 |
Annex A 控制(選錄)
| 控制領域 | 控制範例 | 紅隊關聯 |
|---|---|---|
| AI 政策 | AI 影響評估政策、負責任 AI 政策 | 紅隊範疇應與組織 AI 政策一致 |
| AI 系統生命週期 | 開發流程、驗證與確認 | 紅隊作為驗證活動 |
| 資料管理 | 資料品質、資料來源、偏見管理 | 測試訓練資料投毒與資料擷取 |
| AI 系統監控 | 效能監控、異常偵測 | 以測試驗證監控有效性 |
| 第三方管理 | 供應商評估、合約要求 | 評估 AI 元件的供應鏈風險 |
ISO 42001 vs. ISO 27001
| 面向 | ISO 27001 | ISO 42001 |
|---|---|---|
| 範疇 | 資訊安全 | AI 管理 |
| 風險重點 | 機密性、完整性、可用性 | AI 特有風險(偏見、安全、透明度、資安) |
| 控制 | Annex A 資訊安全控制 | Annex A AI 特有控制 + Annex B 指引 |
| 關係 | IT 安全之基礎 | 建構於 27001 之上;於資安控制引用它 |
| 認證 | 廣泛確立 | 較新;採用中 |
美國 Executive Order 14110
主要要求
| 領域 | 要求 | 機關 |
|---|---|---|
| 安全測試 | 強大 AI 的開發者須與政府分享安全測試結果 | Commerce(NIST) |
| 紅隊 | NIST 制定 AI 紅隊指引 | NIST |
| 標準 | 制定 AI 安全與資安標準 | NIST |
| 浮水印 | 制定 AI 內容驗證與浮水印標準 | Commerce |
| 隱私 | 評估 AI 對隱私的影響 | 多機關 |
| 公平 | 處理 AI 可能加劇歧視的問題 | 多機關 |
NIST AI 100-2(對抗式 ML)
配套文件,提供對抗式 ML 的分類法與術語:
| 攻擊類別 | 定義 |
|---|---|
| Evasion | 於推論期操弄輸入使分類錯誤 |
| Poisoning | 操弄訓練資料以破壞模型行為 |
| Privacy | 擷取有關訓練資料或模型內部的資訊 |
| Abuse | 將 AI 系統用於非預期、有害目的 |
業界特定法規
| 業界 | 法規/框架 | AI 特有意涵 |
|---|---|---|
| 醫療 | HIPAA、FDA SaMD 指引 | AI 管線中的 PHI 保護、診斷 AI 的醫療器材分類、不良事件回報 |
| 金融 | SR 11-7(Model Risk Management)、Fair Lending、SEC/FINRA | 模型驗證要求、信用決策的可解釋性、演算法交易監督 |
| 關鍵基礎設施 | CISA 指引、業界特定標準 | 能源/水/運輸中 AI 的韌性要求、事件回報義務 |
| 政府 | EO 14110、OMB 指引、FedRAMP | 安全測試要求、授權 AI 用例、採購標準 |
| 教育 | FERPA、州級教育用 AI 法 | AI 輔助教學中的學生資料保護、評分 AI 的偏見 |
| 就業 | 紐約市 Local Law 144、EEOC 指引 | AI 招募工具的偏見稽核、通知與揭露要求 |
紅隊與合規對照
紅隊活動如何對應至合規要求:
| 紅隊活動 | NIST AI RMF | EU AI Act | ISO 42001 |
|---|---|---|---|
| 威脅建模 | MAP 功能 | 風險管理系統(Art. 9) | Clause 6(規劃) |
| 漏洞測試 | MEASURE 功能 | 穩健性測試(Art. 15) | Clause 8(營運) |
| 偏見測試 | MEASURE 功能 | 不歧視(Art. 10) | Annex A(資料管理) |
| 滲透測試 | MEASURE 功能 | 網路安全(Art. 15) | Annex A + ISO 27001 |
| 報告撰寫 | MANAGE 功能 | 技術文件(Art. 11) | Clause 7(文件) |
| 修復驗證 | MANAGE 功能 | 符合性評估(Art. 43) | Clause 9(效能評估) |
| 持續監控 | MANAGE 功能 | 上市後監控(Art. 72) | Clause 9(監控) |
速查:何時需要紅隊?
| 情境 | 是否必需? | 框架/法規 |
|---|---|---|
| 歐盟高風險 AI 系統 | 實質上是 | EU AI Act Art. 9、15 |
| 具系統性風險之 GPAI | 明確是 | EU AI Act Art. 55 |
| 美國聯邦 AI 部署 | 強烈建議 | EO 14110、NIST AI RMF |
| ISO 42001 認證 | 屬驗證之一部分 | ISO 42001 Clause 8 |
| 金融服務 AI(美) | 指引要求 | SR 11-7、OCC 指引 |
| 醫療 AI(FDA 管轄) | SaMD 要求 | FDA 上市前要求 |
| 任何處理 PII 的 AI | 強烈建議 | GDPR Art. 25、35(DPIA) |