AI 部署模式與安全意涵
入門2 分鐘閱讀更新於 2026-03-13
基於 API、自架、邊緣與混合部署模式如何各建立 AI 系統的獨特安全考量與攻擊面。
概覽
AI 系統可以多種模式部署,每種有獨特特性影響安全。本頁聚焦於主要模式——基於 API、自架、邊緣與混合——並比較其攻擊面、威脅模型與防禦責任。
主要部署模式
基於 API(託管)
使用者透過 API 呼叫向 AI 供應商(OpenAI、Anthropic、Google)託管的模型。
特性:
- 供應商管理模型權重、基礎設施、基線安全
- 客戶管理 API 金鑰、輸入、整合邏輯
- 規模化、快速、最小營運開銷
攻擊面:
- 提示詞注入、越獄(應用層級)
- API 金鑰竊取/濫用
- 依賴供應商的安全承諾
- 跨客戶污染(若共享基礎設施)
防禦責任分擔:
- 供應商:基礎設施、基礎安全訓練、速率限制
- 客戶:輸入/輸出過濾、應用邏輯、金鑰管理
自架
組織於自己的基礎設施(雲端或本機)上運行模型。
特性:
- 對模型權重與部署完整控制
- 可使用開源模型(Llama、Mistral)
- 所有安全完全由組織負責
- 較高營運成本但隱私最佳
攻擊面:
- 傳統基礎設施漏洞(OS、網路、容器)
- 模型權重保護
- 白箱攻擊於內部威脅
- 對抗性微調風險
防禦責任:完全由組織。
邊緣部署
模型於最終使用者裝置本機運行(手機、IoT、筆電)。
特性:
- 輸入從不離開裝置(隱私最大)
- 可離線運作
- 使用小型量化模型
- 模型權重於使用者裝置
攻擊面:
- 使用者擁有權重(即模型萃取)
- 裝置入侵攻擊
- 有限計算可能限制安全檢查品質
- 側通道攻擊
防禦責任:組織提供模型;使用者裝置安全補充。
混合部署
結合多模式——例如:邊緣進行輕量查詢、託管 API 進行複雜查詢。
特性:
- 可平衡成本、隱私、效能
- 不同查詢路由至不同模型
- 編排層本身需保護
攻擊面:
- 每子模式的攻擊面
- 編排邏輯漏洞
- 跨模式資料流洩漏
比較表
| 特性 | 基於 API | 自架 | 邊緣 | 混合 |
|---|---|---|---|---|
| 模型權重存取 | 否 | 是 | 是(使用者) | 混合 |
| 隱私(資料路徑) | 傳至供應商 | 於組織內 | 不離開裝置 | 混合 |
| 白箱攻擊可能 | 否(對客戶) | 是 | 是 | 混合 |
| 跨租戶風險 | 可能 | 無 | 無 | 可能 |
| 主要威脅 | API 濫用、金鑰竊取 | 基礎設施入侵 | 使用者裝置、萃取 | 編排 + 所有子 |
選擇部署模式
部署選擇取決於:
- 隱私需求:嚴格 → 邊緣 / 自架
- 規模:大量 → API / 混合
- 成本:低 → API(最初)或邊緣
- 控制:高 → 自架
- 法規:可能強制自架或特定雲端
紅隊演練意涵
紅隊演練範圍必須符合部署模式:
- 基於 API:聚焦於應用層(提示詞、整合、金鑰)
- 自架:包含基礎設施 + 應用 + 潛在白箱
- 邊緣:包含裝置安全 + 模型萃取可行性
- 混合:涵蓋所有子模式 + 編排
相關主題
參考文獻
- OWASP LLM Top 10 (2025)
- MITRE ATLAS —— AI 系統的對抗威脅版圖
- NIST AI 600-1 —— AI 風險管理框架
Knowledge Check
為何邊緣部署在隱私上最強但引入獨特安全挑戰?