安全關鍵嵌入式系統中人工智慧的實用指南

探索在嵌入式系統中部署 AI 和 ML 的關鍵挑戰。了解開發團隊用來確保安全、保障和合規性的策略。

人工智慧 (AI) 和機器學習 (ML) 正在改變汽車、醫療保健和國防等行業的嵌入式安全關鍵系統。它們為嵌入式系統自主高效運作提供動力。

然而,將 AI/ML 整合到嵌入式安全關鍵系統中面臨著獨特的挑戰:

  • 高風險的失敗風險
  • 嚴格的合規要求
  • 不可預測的模型行為

想像一下,自動駕駛汽車可以在瞬間做出煞車決定,或者一台起搏器可以偵測到危及生命的心律不整。對於這些由人工智慧驅動的嵌入式系統來說,失敗是不可接受的。

嵌入式系統在有限的處理能力、記憶體和能量的嚴格約束下運作。同時,它們通常在極端溫度和振動等惡劣環境下運作。

人工智慧模型,尤其是深度學習網絡,需要大量的運算資源,因此難以有效部署。開發工程師面臨的主要挑戰包括:

  • 資源限制。人工智慧模型消耗過多的電力和內存,與嵌入式設備的限制相衝突。
  • 決定論。自動煞車等安全關鍵應用需要可預測的即時響應。不幸的是,人工智慧模型的行為可能會變得不可預測。
  • 認證和合規性。 ISO 26262 和 IEC 62304 等監管標準要求透明度。但人工智慧模型通常充當黑盒子。
  • 安全風險。對抗性攻擊可以操縱人工智慧模型,導致危險的故障,例如欺騙醫療設備進行錯誤的劑量。

為了克服這些障礙,工程師採用優化技術、專用硬體和嚴格的測試方法。

由於嵌入式系統無法支援大規模的人工智慧模型,工程師們在不犧牲準確性的情況下對其進行壓縮。

  • 修剪會消除多餘的神經連接。例如,美國太空總署對其火星探測器的地形分類模型進行了精簡,在不影響準確性的情況下將處理時間縮短了 30%。
  • 量化降低數值精度,從而將記憶體使用量減少 75%。例如,將 32 位元值轉換為 8 位元整數。 Fitbit 利用此功能來延長健康追蹤器的電池壽命,同時保持效能。

安全關鍵系統(例如車道輔助、胰島素幫浦和飛機飛行控制)需要一致的行為。然而,人工智慧模型可能會因不同的輸入而出現偏差或行為不可預測。

解決方案?凍結模型。這意味著在訓練後鎖定權重以確保 AI 的行為與測試完全一致。例如,特斯拉在自動駕駛儀中使用凍結神經網絡,只有在對下一次修訂進行廣泛驗證後才會更新它們。

監管機構要求人工智慧決策透明化。 LIME 和 SHAP 等可解釋人工智慧 (XAI) 工具有助於:

  • 可視化模型如何做出決策。
  • 識別偏見或弱點。
  • 符合 ISO 26262 等認證要求。

嵌入式系統中的人工智慧模式面臨網路威脅。例如,操縱感測器資料導致錯誤分類。緩解策略包括:

  • 對抗性訓練。在開發過程中將模型暴露於惡意輸入。
  • 輸入清理。過濾掉可疑資料。
  • 冗餘和運行時監控。使用基於規則的後備方法交叉檢查 AI 輸出。

通用 CPU 在處理 AI 工作負載時遇到困難,引發了以下創新:

  • 神經處理單元(NPU)。針對高通驍龍 NPU 等 AI 任務進行了最佳化,可在智慧型手機中實現即時 AI 攝影。
  • 張量處理單元 (TPU)。加速嵌入式設備中的深度學習推理。

這些進步使得人工智慧即使在電力受限的環境中也能有效運作。

即使有了人工智慧,傳統的驗證仍然至關重要:

方法在人工智慧系統中的作用
靜態分析檢查模型結構是否有設計缺陷。
單元測試驗證非 AI 組件,例如感測器接口,而 AI 模型則經過資料驅動的驗證。
程式碼覆蓋率確保像 MC/DC 一樣進行詳盡的測試以符合 ISO 26262 要求。
可追溯性將人工智慧行為映射到系統要求,這對於審計至關重要。

混合方法(將傳統測試與特定於 AI 的方法相結合)對於認證至關重要。

  • 優化 AI 模型(修剪、量化)以適應嵌入式限制。
  • 凍結訓練模型以確保確定性、可證明的行為。
  • 使用 XAI 工具實現透明度和合規性。
  • 加強模型以抵禦對抗性攻擊。
  • 利用專用硬體(NPU、TPU)高效執行 AI。
  • 將傳統驗證(靜態分析、單元測試)與人工智慧感知技術結合。

儘管 AI/ML 正在改變嵌入式系統,但安全性和合規性仍然是絕對的首要任務。透過平衡創新與嚴格的測試、模型優化和監管協調,團隊可以部署安全可靠的人工智慧驅動的嵌入式系統。