教育 AI 安全
教育中 AI 的安全風險——涵蓋學術誠信威脅、適性學習操控、學生資料隱私、AI 家教攻擊與評量系統利用。
教育中的 AI 建立矛盾:技術最大的潛力——規模化個人化學習——也是其最大漏洞。學生比大多數行業使用者更密集地與 AI 系統互動,他們既有動機也有好奇心探測這些系統的極限。
學術誠信與 AI
AI 偵測規避:學生已發展精密技術規避 AI 產生內容偵測工具:多輪人類編輯改寫、使用 AI 產生大綱再手動撰寫、混合 AI 與人類內容。提示詞分享網路:學生透過社群媒體分享特定作業的有效提示詞。評量設計意涵:要求重現資訊的評量對 AI 脆弱;要求展示過程的評量更具韌性。
AI 抄襲偵測操控:偵測工具本身是可被操控的 AI 系統。錯誤指控攻擊:打造觸發他人提交之偵測誤報的內容。對抗性文字規避:插入不可見 Unicode 字元或使用同形字。
適性學習系統安全
博弈適性系統:策略性失敗 刻意答錯以獲得較簡單問題。模式利用 識別演算法如何選擇問題。最佳路徑博弈 找到通過課程的最少努力路徑。
適性演算法投毒:一個學生的行為可影響系統對內容難度的模型,進而影響其他學生。
學生資料隱私
過度收集:許多 AI 教育工具收集超過教育目的所需的資料。第三方分享:教育 AI 工具經常依賴第三方 AI 服務,學生資料可能受該第三方資料處理政策約束。保留與刪除:FERPA 與 GDPR 要求學生資料僅在必要時保留,但 AI 系統中模型權重與嵌入資料庫等衍生資料形式難以追溯至個別學生。
AI 家教隱私風險:學生可能在與 AI 家教的對話中分享個人資訊、情緒狀態與家庭情況。此資訊可能被記錄並用於家教以外的目的。
評量與監考系統攻擊
AI 監考規避:臉部辨識繞過 使用照片或深偽影片。視線追蹤規避 將參考材料放在螢幕附近特定角度。音訊監控規避 使用文字溝通。行為分析利用 學習系統標記什麼行為模式並調整行為。
自動化評分操控:關鍵字填充 加入 AI 與高品質關聯的相關關鍵字。結構博弈 符合 AI 與好提交關聯的結構模式。對評分器的提示詞注入 在提交中嵌入影響 AI 評分模型的指令。
機構安全建議
給 EdTech 供應商
對 AI 元件進行定期安全評估。實作隱私設計。支援從 AI 模型移除資料的刪除請求。測試適性演算法的博弈抵抗力。
給教育機構
採購前評估 AI 工具的安全與隱私實務。建立 AI 系統中的學生資料處理政策。訓練教職員認識 AI 安全風險。
給學生與家長
理解 AI 教育工具收集什麼資料。知道你在適用隱私法下的權利。意識到與 AI 家教的對話可能被記錄與分析。
教育行業的 AI 安全挑戰獨特,因為使用者同時是 AI 系統的受益者、對象與最有動機的對手。