大型語言模型部署模式與安全
中級2 分鐘閱讀更新於 2026-03-20
常見大型語言模型部署模式及其安全意涵,包含直接 API、RAG、代理與管線架構。
概覽
本頁聚焦於應用層級 LLM 部署模式——直接 API 呼叫、RAG 架構、代理式系統、ML 管線——與其各自的安全特性。不同於 部署模式(聚焦於基礎設施層),本頁檢視 LLM 於應用架構中如何被使用。
主要應用模式
直接 API 模式
最簡單:應用將使用者查詢傳送至 LLM API 並顯示回應。
攻擊面:
- 提示詞注入(使用者輸入直接到達模型)
- 輸入/輸出過濾缺陷
- API 金鑰安全
- 速率限制繞過
RAG 模式
檢索增強生成:應用從向量資料庫檢索相關文件,納入 LLM 上下文,產生奠基於文件的回應。
攻擊面:
- 間接提示詞注入(透過被投毒文件)
- 檢索操控(影響哪些文件被檢索)
- 嵌入攻擊(影響向量搜尋結果)
- 跨文件資訊外洩
- 文件來源攻擊(投毒索引來源)
代理模式
LLM 具工具存取,可執行動作(呼叫 API、執行程式碼、查詢資料庫)。
攻擊面:
- 代理利用(工具濫用、沙箱逃逸)
- 函式呼叫注入
- 工具輸出投毒
- 代理間通訊(若多代理)
- 記憶體投毒
管線模式
多步驟管線:一個 LLM 呼叫的輸出饋入另一個(或相同)LLM 的輸入。
攻擊面:
- 跨步驟注入傳播
- 中間步驟被操控
- 不同安全層級於不同步驟
- 難以於步驟間維持安全約束
混合模式
組合上述模式——例如具 RAG 的代理(檢索文件並使用工具)。
攻擊面:
- 每子模式的攻擊面
- 新穎組合攻擊(RAG 投毒觸發代理濫用)
- 跨元件信任假設
攻擊面比較
| 模式 | 注入風險 | 間接注入 | 工具濫用 | 資料洩漏 |
|---|---|---|---|---|
| 直接 API | 高 | 低 | 不適用 | 中 |
| RAG | 中 | 極高 | 不適用 | 高 |
| 代理 | 中 | 中 | 極高 | 高 |
| 管線 | 中 | 中 | 依管線 | 中-高 |
| 混合 | 高 | 高 | 高 | 極高 |
模式特定紅隊演練
直接 API 紅隊演練
- 聚焦於提示詞基礎攻擊
- 測試輸入/輸出過濾
- 驗證速率限制與成本控制
RAG 紅隊演練
- 間接注入透過文件檢索
- 向量搜尋操控
- 跨使用者/租戶資料洩漏
- 文件來源控制
代理紅隊演練
- 完整工具表面枚舉
- 每工具的注入測試
- 多步工作流程的級聯效應
- 記憶體與狀態管理
管線紅隊演練
- 跨步驟注入傳播
- 每步驟的獨立安全檢查
- 中間輸出驗證
- 端對端信任分析
架構決策的安全意涵
選擇部署模式的每項決策有安全後果:
- 新增 RAG:新間接注入面 vs. 事實根據改善
- 新增代理:真實世界能力 vs. 利用影響放大
- 新增記憶體:個人化 vs. 跨工作階段攻擊面
- 新增多代理:複雜工作流程能力 vs. 信任邊界複雜度
安全意識的架構決策考量這些取捨而非僅功能需求。
相關主題
參考文獻
- MITRE ATLAS —— AI 系統的對抗威脅版圖
Knowledge Check
為何混合 LLM 部署模式(例如具 RAG 的代理)有累加而非簡單的攻擊面?