關閉選單
德國聯邦資訊安全局(BSI)白皮書 — 人工智慧中的偏差
一、概述與背景
隨著人工智慧(AI)在各領域的廣泛應用,技術焦點已不僅限於演算法性能與運算能力,而逐漸關注公平性、公正性與安全性。偏差(Bias)是其中最受關注且具爭議性的議題之一,指 AI 系統因數據或設計上的偏差,對特定子族群(Subpopulation)造成不公平待遇或錯誤判斷。BSI 指出,偏差問題不僅涉及倫理與公平,更可能引發 資訊安全風險,影響 CIA 三要素。
偏差可能帶來的後果
  1. 對使用者:歧視、錯誤拒絕服務或機會、失去信任。
  2. 對企業與組織:法律責任、商譽受損、業務中斷。
  3. 對資訊安全:偏差可能被惡意行為者利用,成為攻擊向量。


二、偏差類型(Bias-Arten)
BSI 依據 AI 系統生命週期,將偏差分為三大階段類型:
2.1 數據收集與準備階段
  1. 歷史偏差(Historical Bias)
    • 起因:資料反映了過時或不當的社會觀念與決策。
    • 案例:招聘 AI 以舊數據訓練,沿用男性偏好的錄用傾向。
  2. 代表性偏差(Representation Bias)
    • 起因:某些子族群在數據中缺席或比例不足。
    • 案例:僅在大城市收集交通滿意度調查,導致忽略鄉村地區情況。
  3. 測量偏差(Measurement Bias)
    • 起因:測量方法或指標選擇不當。
    • 案例:刑事風險評估系統採用「家人有無被捕」作為指標。
  4. 遺漏變數偏差(Omitted Variable Bias)
    • 起因:缺少重要特徵,導致模型關聯錯誤。
    • 案例:疾病預測未考慮年齡因素。
2.2 模型開發與訓練階段
  1. 評估偏差(Evaluation Bias)
    • 起因:評估資料集或方法不具代表性。
    • 案例:臉部辨識評估資料集中八成為白人臉孔。
  2. 演算法偏差(Algorithmic Bias)
    • 起因:演算法假設或訓練策略引入偏差。
    • 案例:隨機數生成器偏差導致特定群體樣本權重過高。
  3. 聚合偏差(Aggregation Bias)
    • 起因:資料彙總時忽略子群差異,造成結果失真。
    • 案例:Simpson 悖論在醫療數據中的體現。
2.3 系統部署與使用階段
  1. 互動偏差(Interaction Bias)
    • 呈現偏差(Presentation Bias):顯示內容有限制,忽略其他可能結果。
    • 排序偏差(Ranking Bias / Popularity Bias):排序影響使用者點擊與互動。
  2. 族群偏差(Population Bias)
    • 訓練與實際使用數據族群結構不一致。
    • 案例:入侵偵測模型在不同企業網路環境失效。
  3. 部署偏差(Deployment Bias)
    • 模型被用於非原設計用途。
    • 案例:天氣預測模型被直接用於農業灌溉決策。
  4. 自動化偏差(Automation Bias)
    • 過度依賴自動系統,忽略人工判斷。
    • 案例:駕駛完全依賴導航,忽視危險路線。

三、偏差檢測方法(Bias-Detektion)
3.1 數據層檢測
  1. 質性分析:檢查數據來源、時間、收集方式、代表性、缺失值、可能的假訊息。
  2. 量化分析
    • 分佈偏斜度(Skewness)
    • 特徵間相關性(Correlation)
    • 自相關分析(Autocorrelation)
    • 變異數檢查(Variance)
    • ANOVA 或 Tukey 測試比較子群差異
3.2 模型層檢測
  1. 公平性指標(Fairness Metrics)
    • 人口統計平等(Demographic Parity)
    • 預測平等(Predictive Parity)
    • 機會均等(Equalized Odds)
    • 總體精確度平等(Overall Accuracy Equality)
    • 處理平等(Treatment Equality)
    • 校準(Calibration)
  2. 語言模型偏差檢測
    • 嵌入空間分析(Embedding-based)
    • Prompt 測試(Prompt-based)
    • 模板測試(Template-based)

四、偏差緩解方法(Bias-Mitigation)
BSI 將緩解策略分為三階段:
4.1 前處理(Pre-processing)
  • 改變標籤(Label Massaging)
  • 特徵修改(Feature Modification)
  • 新增潛變數(Latent Variable)
  • 採樣平衡(SMOTE、加權)
  • 公平表徵學習(Learning Fair Representations)
4.2 訓練中(In-processing)
  • 正則化加入公平性項(Fairness Regularization)
  • 約束條件(Constraint-based)
  • 對抗式去偏(Adversarial Debiasing)
  • 集成學習針對子群建模(Ensemble Learning)
4.3 後處理(Post-processing)
  • 輸出調整(Output Adjustment)
  • 閾值平衡(Threshold Adjustment)
  • 再校準(Re-calibration)

五、偏差與資安關聯
  • 機密性:生物辨識偏差可能讓未授權者通過驗證
  • 完整性:偏差引發錯誤決策,影響業務流程正確性
  • 可用性:偏差導致系統在特定情況下頻繁誤判,降低可用性

六、BSI 建議行動
  1. 建立偏差知識與訓練計畫。
  2. 指定偏差責任人,負責檢測與應對。
  3. 在數據收集階段引入減偏措施。
  4. 優先採用前處理與訓練中緩解,必要時採用後處理。
  5. 將偏差管理納入 AI 全生命週期,持續監測與改進。

資料來源: https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Whitepaper_Bias_KI.html.  
 
深入解析德國BSI《人工智慧中的偏差》白皮書,探討偏差對公平性與資訊安全的影響,為政府、企業與技術供應商提供實用的AI偏差治理指南。