AI 紅隊的法律框架
AI 安全測試的法律地景:CFAA 意涵、AI 特有法規、國際差異,以及合法研究與未授權存取的分野。
AI 紅隊位於法律上複雜的領域。與有數十年判例釐清「授權存取」的傳統滲透測試不同,AI 安全測試涉及新穎攻擊面——提示注入、模型擷取、對齊繞過——這些現行法律從未為此而設計。
電腦詐欺與濫用法(CFAA)
對於在美國境內或針對美國系統作業的 AI 紅隊而言,CFAA 仍是最重要的法律風險。
與 AI 測試相關的主要條款
| CFAA 條款 | 禁止之行為 | AI 紅隊相關性 |
|---|---|---|
| 1030(a)(2) | 存取電腦以取得資訊 | 模型權重擷取、訓練資料擷取 |
| 1030(a)(4) | 以詐欺意圖存取 | 透過 AI 系統的社交工程 |
| 1030(a)(5) | 對受保護電腦造成損害 | 針對 AI 端點的拒絕服務 |
| 1030(a)(7) | 威脅損害或取得資訊 | 涉及擷取模型權重之勒索情境 |
「超出授權存取」問題
美國最高法院 2021 年 Van Buren v. United States 判決縮限 CFAA 之「exceeds authorized access」條款,裁定其僅適用於「存取未獲授權可存取之電腦區域」,而非「誤用其有權存取之資訊」。這對 AI 紅隊具直接意涵。
CFAA 下研究者的 Safe Harbor
2022 年美國司法部政策修訂指示聯邦檢察官對善意資安研究者不提起 CFAA 告訴。該政策列出若干顯示善意之因素:
授權範疇
測試於漏洞賞金計畫或授權委任之邊界內進行。
漏洞揭露
發現之漏洞回報予系統擁有者,未被利用以謀私利。
最小危害
測試未造成不必要之損害、資料外洩或服務中斷。
無勒索
發現未被用於威脅或勒索系統擁有者。
AI 特有法規
數個管轄已制定或提案 AI 特有法律,為資安研究者建立新的法律義務——以及新的法律風險。
美國:Executive Order 14110
2023 年關於安全、穩固、可信 AI 的行政命令引入多項與紅隊相關條款:
- 雙重用途基礎模型回報:達到算力門檻之模型開發者須向政府回報紅隊結果
- 紅隊測試要求:聯邦機關部署 AI 系統前必須進行紅隊測試
- NIST AI RMF 對齊:測試須與 NIST AI 風險管理框架指引對齊
EU AI Act
EU AI Act 建立以風險為基礎的分級制度,對高風險 AI 系統訂有具體測試要求。詳細分析請見專門的 EU AI Act 合規測試頁面。
州級 AI 法律
美國多州已通過 AI 特有立法:
| 州 | 法律 | 紅隊影響 |
|---|---|---|
| 科羅拉多 | SB 24-205(AI Consumer Protections) | 要求對高風險 AI 決策進行偏見測試 |
| 加州 | SB 1047(2024 否決、2025 復議) | 對大型模型之安全評估 |
| 伊利諾 | AI Video Interview Act | 對 AI 招募工具之測試要求 |
| 德州 | HB 2060 | AI 系統透明度與測試規定 |
測試合法與否
AI 紅隊的合法性取決於多項以複雜方式互動的因素。
通常合法(附注意事項)
- 測試你擁有的 AI 系統或模型
- 在簽署之授權協議下(範疇受限)進行測試
- 依官方漏洞賞金計畫規則參與
- 對已公開權重之開源模型進行學術研究
- 於服務條款內對公開 API 進行提示注入測試
法律灰色地帶
- 未經明確授權對商用 AI 服務進行越獄
- 從生產級 AI 助理擷取系統提示
- 未經許可對公開 AI 系統測試偏見或安全議題
- 可能構成拒絕服務的自動化大規模測試
- 繞過 AI 安全過濾(可能有 DMCA 1201 意涵)
通常違法
- 未經授權擷取專有模型權重
- 外洩含 PII 或營業秘密之訓練資料
- 被明確要求停止後仍測試
- 將發現之漏洞用於謀私利
- 存取超出 AI 介面之內部 API 或基礎設施
服務條款考量
多數 AI 服務供應商在其服務條款中含影響紅隊活動的條款。
| 供應商慣例 | 法律風險 | 緩解 |
|---|---|---|
| 禁止「逆向工程」 | 違反 ToS、可能之 CFAA 主張 | 取得獨立測試授權 |
| 速率限制與濫用偵測 | 帳號終止、可能之法律行動 | 與供應商安全團隊協調 |
| 資料使用限制 | 違約 | 確保測試資料不違反資料條款 |
| 輸出監控 | 若測試提示被記錄可能有隱私意涵 | 使用經消毒之測試案例 |
建立法律基礎
於任何 AI 紅隊委任前,請先確立你的法律立場。
取得書面授權
取得指明範疇、方法、時程與資料處理的簽署委任書。範本請見 授權與合約頁面。
審視適用法律
辨識所有涉及管轄(測試者所在、系統所在、資料所在)並審視相關法律。請見 國際 AI 安全法。
檢查供應商政策
審視 AI 供應商的服務條款、漏洞賞金計畫與負責任揭露政策。
詳實記錄
維持所有測試活動、溝通與發現的詳細紀錄。合法性受質疑時,文件是你的主要防線。
取得適當保險
專業責任保險對商業紅隊至關重要。請見 保險與合規要求。
相關主題
- 授權、合約與責任 -- 實務合約範本與責任保護
- 國際 AI 安全法 -- 管轄特有之法律分析
- 倫理與負責任揭露 -- 補充法律合規的倫理框架
- NIST AI RMF 與 ISO 42001 -- 為法律義務提供依據的風險管理框架
參考資料
- "Computer Fraud and Abuse Act (CFAA)" - U.S. Congress, 18 U.S.C. § 1030 - 規範對電腦系統未授權存取的聯邦法律,經 Van Buren v. United States(2021)縮限
- "Executive Order 14110 on Safe, Secure, and Trustworthy AI" - The White House(2023)- 為聯邦機關與關鍵基礎設施建立 AI 安全測試要求的總統命令
- "EU Artificial Intelligence Act" - European Parliament(2024)- 對高風險 AI 系統含對抗測試要求的綜合性 AI 法規
- "NIST AI Risk Management Framework (AI RMF 1.0)" - National Institute of Standards and Technology(2023)- 自願性 AI 風險管理框架,為監管機關與法院所引用
- "Authorized Access and the CFAA: A Research-Oriented Perspective" - Electronic Frontier Foundation(2021)- Van Buren 後 CFAA 對資安研究者意涵的分析
於最高法院 Van Buren 判決下,下列哪一情境最可能構成 CFAA 下的『超出授權存取』?