關閉選單
研究人員建構了一個用於私有人工智慧推理的加密路由層

醫療保健、金融和其他敏感行業的機構希望使用大型人工智慧模型,但又不希望將私有資料暴露給運行這些模型的雲端伺服器。一種名為安全多方計算 (MPC) 的加密技術使這一切成為可能。它將資料分割成加密片段,並將它們分佈在兩個或多個互不共享資訊的伺服器上,使這些伺服器能夠在完全不接觸原始輸入資料的情況下計算出人工智慧結果。

問題在於速度。一個標準的中型語言模型,在正常運行時不到一秒就能返回結果,但在多方計算(MPC)下處理時,可能需要超過 60 秒,加密開銷就是這麼大。

為什麼現有解決方案只能做到如此程度

以往關於私密推理的研究主要集中在重新設計人工智慧模型,以降低加密環境下的運作成本。這些努力固然有所幫助,但它們都存在一個共同的結構性限制:無論查詢的複雜程度如何,每個查詢都透過同一個模型進行處理,且成本相同。

在普通的AI部署中,一種常見的最佳化方法是將簡單的查詢路由到小型、快速的模型,而將大型、昂貴的模型留給真正需要的查詢。這種路由方式在明文系統中是標準做法。但在加密環境下應用這種路由方式則比較困難,因為路由決策本身通常需要讀取輸入,而輸入必須始終保持加密狀態。

SecureRouter 的功能

佛羅裡達中央大學的研究人員開發了一套名為 SecureRouter 的系統,該系統將輸入自適應路由引入加密 AI 推理。該系統維護一個不同規模的模型池,從參數量約 440 萬的小型模型到參數量約 3.4 億的大型模型不等。一個輕量級的路由元件會對每個傳入的加密查詢進行評估,並在完全加密的環境下選擇模型池中的哪個模型來處理該查詢。路由決策永遠不會以明文形式暴露。

路由器經過訓練,能夠權衡準確率和計算成本,這裡的成本是以加密執行時間而非明文系統中常用的參數數量來衡量的。負載平衡機制可防止路由器對所有查詢都預設使用單一模型。

圖示為我們提出的安全路由器框架,該框架分為離線訓練階段和線上推理階段。此圖簡化了架構,重點關注用戶和端到端隱私推理服務提供者。 (資料來源:研究論文)

它運行速度快多少?

SecureRouter 與使用固定大型模型的私有推理系統 SecFormer 進行了對比測試,在五項語言理解任務中,平均推理時間縮短了 1.95 倍。速度提升幅度從最複雜任務的 1.83 倍到最簡單任務的 2.19 倍不等,這反映了路由器能夠根據查詢難度調整模型大小。

與對所有查詢(無論複雜度如何)都執行大型模型相比,在八個基準測試任務中,平均速度提升了 1.53 倍。在大多數任務中,準確率與大型模型基線的準確率相差不到一個百分點。但有一個涉及語法分析的任務準確率下降較為明顯,這表明某些高度專業化的任務對使用較小模型更為敏感。

開銷很小

在加密推理系統中加入路由層本身就可能成為瓶頸。實際上,在雙伺服器架構中,路由組件會消耗約 39 MB 的內存,而單獨運行池中最小的模型僅需 38 MB。池中最大的模型則需要約 3100 MB 的記憶體。路由器會增加約 4 秒的推理時間和 1.86 GB 的網路通訊量,這些數值與單獨運行最小模型相當。

這在實踐中意味著什麼

該系統無需重建現有基礎設施。它基於現有的模型計算(MPC)框架構建,並使用可透過通用庫取得的標準語言模型架構。簡單的查詢可以使用小型模型快速解決。需要更大處理能力的查詢則會升級到更大的模型。提交查詢的用戶端只能看到最終結果,而不會了解是哪個模型處理了該請求。

資料來源:https://www.helpnetsecurity.com/2026/04/21/securerouter-encrypted-ai-inference/
 
SecureRouter 近期發表針對 AI 推論的加密解決方案,透過創新的隱私增強技術,讓企業能在不洩露敏感資料的前提下,於邊緣設備執行高效能的 AI 模型運算,有效解決了當前生成式 AI 發展中的資料隱私與合規挑戰。