國際 AI 安全法
跨管轄的 AI 安全測試法律差異:EU AI Act、美國行政命令、UK AI Safety Institute、中國 AI 法規,以及它們對紅隊範疇的影響。
AI 法規在各管轄間快速演進,且無任兩國採取完全相同做法。對紅隊者而言,這意味著一項委任的合法性、範疇與回報義務可能因系統部署地、測試者所在地與資料所在地而大幅改變。
法規做法比較
| 維度 | 歐盟 | 美國 | 英國 | 中國 |
|---|---|---|---|---|
| 主要工具 | AI Act(Regulation 2024/1689) | 行政命令、業界特定規則 | 自願框架 + AI Safety Institute | 生成式 AI 暫行措施 + 業界規則 |
| 做法 | 以風險為基礎、規範式 | 業界特定、分散 | 親創新、原則導向 | 國家管制、聚焦內容 |
| 紅隊要求 | 對高風險系統強制 | 聯邦機關(EO 14110) | 自願,AISI 鼓勵 | 面向公眾之生成式 AI 必需 |
| 域外效力 | 有(影響服務歐盟使用者之系統) | 有限 | 有限 | 有(影響中國境內可存取服務) |
| 罰則 | 至全球年營收 7% | 依業界而異 | 無(自願框架) | 行政罰、停止服務 |
歐盟:AI Act
EU AI Act是世界上第一部綜合性 AI 法規,對紅隊活動的影響最為直接。
風險分級
| 風險層級 | 範例 | 測試要求 |
|---|---|---|
| 不可接受 | 社會評分、即時生物辨識監控 | 禁止——不需測試,系統不得部署 |
| 高風險 | 雇用、信用評分、執法、關鍵基礎設施中的 AI | 強制符合性評估,含對抗測試 |
| 有限風險 | 聊天機器人、AI 產生之內容 | 透明度義務,測試為自願 |
| 最小風險 | 垃圾郵件過濾、遊戲 AI | 無特定要求 |
AI Act 下的紅隊義務
對高風險 AI 系統,第 9 條要求提供者實施風險管理系統,包含:
- 辨識並分析已知與可預見的風險
- 以「先前未知輸入」進行測試(對抗測試)
- 對「合理可預見的誤用」進行評估
- 對健康、安全與基本權利之風險進行測試
通用 AI(GPAI)模型
具系統性風險(一般指以超過 10^25 FLOPs 訓練者)的模型面臨額外義務:
- 以對抗測試辨識系統性風險
- 文件化的測試方法論
- 重大事件的事件回報
- 對模型權重的網路安全保護
美國:分散的聯邦做法
美國缺乏綜合性聯邦 AI 法。相對地,AI 測試義務源於:
Executive Order 14110(2023)
- 雙重用途基礎模型開發者須與政府分享紅隊結果
- 聯邦機關部署 AI 前必須進行紅隊測試
- 指示 NIST 制定 AI 測試標準(見 NIST AI RMF)
業界特定法規
| 業界 | 主管機關 | AI 測試關聯 |
|---|---|---|
| 金融服務 | OCC、FDIC、Fed | 模型風險管理(SR 11-7)要求驗證 |
| 醫療 | FDA | 基於 AI/ML 的 SaMD 需臨床驗證 |
| 就業 | EEOC | AI 招募工具適用差別影響分析 |
| 住房 | HUD | Fair Housing Act 適用於 AI 輔助決策 |
| 汽車 | NHTSA | 自駕 AI 測試要求 |
州層級活動
各州以自己的 AI 立法填補聯邦空缺。科羅拉多、加州、伊利諾與德州已通過或提案含測試要求的法律。請見法律框架概觀以獲各州拆解。
英國:親創新框架
英國刻意採取與歐盟不同的做法,偏好彈性而非規範性規制。
AI Safety Institute(AISI)
英國 AI Safety Institute 對前沿 AI 模型進行上線前測試。主要面向:
- 自願協議與主要 AI 實驗室取得發布前存取
- 評估能力涵蓋危險能力、社會危害與濫用潛力
- 公開研究評估方法論與發現
- 國際協調與美國 AISI 及其他機構合作
監理沙盒做法
英國透過監理沙盒鼓勵安全研究,並採取「既有監管機關(FCA、Ofcom、CMA 等)應於其既有職責內套用 AI 治理,而非另立 AI 專法」的原則。
中國:聚焦內容管制
中國 AI 法規重點在內容管制與「社會主義核心價值觀」對齊。主要工具:
- 生成式 AI 服務管理暫行辦法(2023):要求面向公眾的生成式 AI 服務於上線前進行安全評估
- 演算法推薦管理規定(2022):要求演算法透明度與使用者控制
- 深度合成規定(2023):管理深偽與合成媒體
紅隊意涵
| 面向 | 中國做法 |
|---|---|
| 強制測試 | 公開部署前必需 |
| 重點 | 內容安全、政治敏感、「社會主義核心價值觀」對齊 |
| 資料本地化 | AI 系統須使用本地儲存的訓練資料 |
| 外國測試者存取 | 極度受限;偏好在地實體 |
| 回報 | 發現須向網信辦回報 |
處理多管轄委任
許多 AI 紅隊委任涉及多個管轄。常見情境:美國測試者評估英國公司部署、服務歐盟使用者、由美國供應商模型所建的 AI 系統。
繪製所有管轄
辨識測試者所在地、系統託管地、模型供應商設立地,以及終端使用者所在地。
辨識最嚴格要求
EU AI Act 的域外效力意味著,即便系統託管於歐盟境外,歐盟規則仍常適用。請套用最嚴格標準。
處理資料跨境規則
GDPR 與其他資料保護法可能限制測試資料(含模型輸出)跨境傳輸。確保你的資料處理計畫已納入此考量。
對齊回報義務
不同管轄有不同的事件與漏洞回報要求。委任合約應明確指定適用之回報義務。
相關主題
- AI 紅隊的法律框架 -- 以美國為主之法律分析,含 CFAA
- EU AI Act 合規測試 -- 詳細的 EU AI Act 測試方法論
- 授權、合約與責任 -- 多管轄委任的合約條款
- NIST AI RMF 與 ISO 42001 -- 監理機關所引用的框架
參考資料
- "EU Artificial Intelligence Act" - European Parliament(2024)- 第 9、15 條關於高風險 AI 系統對抗測試要求
- "Interim Administrative Measures for Generative AI Services" - Cyberspace Administration of China(2023)- 中國生成式 AI 法規框架含安全評估要求
- "AI Safety Institute Approach to Evaluations" - UK AI Safety Institute(2024)- 英國政府上線前 AI 安全測試方法論
- "Cross-Border Data Transfer Mechanisms and AI Testing" - International Association of Privacy Professionals(2024)- GDPR 對國際 AI 安全評估的意涵
- "ISO/IEC 42001:2023 AI Management Systems" - International Organization for Standardization(2023)- 跨管轄引用的 AI 治理國際標準
哪個管轄對高風險 AI 系統之對抗測試具有最規範性、最具法律約束力的要求?