探索在嵌入式系統中部署 AI 和 ML 的關鍵挑戰。了解開發團隊用來確保安全、保障和合規性的策略。
人工智慧 (AI) 和機器學習 (ML) 正在改變汽車、醫療保健和國防等行業的嵌入式安全關鍵系統。它們為嵌入式系統自主高效運作提供動力。
然而,將 AI/ML 整合到嵌入式安全關鍵系統中面臨著獨特的挑戰:
- 高風險的失敗風險
- 嚴格的合規要求
- 不可預測的模型行為
想像一下,自動駕駛汽車可以在瞬間做出煞車決定,或者一台起搏器可以偵測到危及生命的心律不整。對於這些由人工智慧驅動的嵌入式系統來說,失敗是不可接受的。
為什麼安全關鍵系統中的人工智慧需要特殊測試
嵌入式系統在有限的處理能力、記憶體和能量的嚴格約束下運作。同時,它們通常在極端溫度和振動等惡劣環境下運作。
人工智慧模型,尤其是深度學習網絡,需要大量的運算資源,因此難以有效部署。開發工程師面臨的主要挑戰包括:
- 資源限制。人工智慧模型消耗過多的電力和內存,與嵌入式設備的限制相衝突。
- 決定論。自動煞車等安全關鍵應用需要可預測的即時響應。不幸的是,人工智慧模型的行為可能會變得不可預測。
- 認證和合規性。 ISO 26262 和 IEC 62304 等監管標準要求透明度。但人工智慧模型通常充當黑盒子。
- 安全風險。對抗性攻擊可以操縱人工智慧模型,導致危險的故障,例如欺騙醫療設備進行錯誤的劑量。
為了克服這些障礙,工程師採用優化技術、專用硬體和嚴格的測試方法。
可靠且安全的 AI/ML 部署策略
- 模型最佳化:剪枝與量化
由於嵌入式系統無法支援大規模的人工智慧模型,工程師們在不犧牲準確性的情況下對其進行壓縮。
- 修剪會消除多餘的神經連接。例如,美國太空總署對其火星探測器的地形分類模型進行了精簡,在不影響準確性的情況下將處理時間縮短了 30%。
- 量化降低數值精度,從而將記憶體使用量減少 75%。例如,將 32 位元值轉換為 8 位元整數。 Fitbit 利用此功能來延長健康追蹤器的電池壽命,同時保持效能。
- 使用凍結模型確保確定性
安全關鍵系統(例如車道輔助、胰島素幫浦和飛機飛行控制)需要一致的行為。然而,人工智慧模型可能會因不同的輸入而出現偏差或行為不可預測。
解決方案?凍結模型。這意味著在訓練後鎖定權重以確保 AI 的行為與測試完全一致。例如,特斯拉在自動駕駛儀中使用凍結神經網絡,只有在對下一次修訂進行廣泛驗證後才會更新它們。
- 合規性可解釋人工智慧(XAI)
監管機構要求人工智慧決策透明化。 LIME 和 SHAP 等可解釋人工智慧 (XAI) 工具有助於:
- 可視化模型如何做出決策。
- 識別偏見或弱點。
- 符合 ISO 26262 等認證要求。
- 對抗穩健性和安全性
嵌入式系統中的人工智慧模式面臨網路威脅。例如,操縱感測器資料導致錯誤分類。緩解策略包括:
- 對抗性訓練。在開發過程中將模型暴露於惡意輸入。
- 輸入清理。過濾掉可疑資料。
- 冗餘和運行時監控。使用基於規則的後備方法交叉檢查 AI 輸出。
專用硬體的作用
通用 CPU 在處理 AI 工作負載時遇到困難,引發了以下創新:
- 神經處理單元(NPU)。針對高通驍龍 NPU 等 AI 任務進行了最佳化,可在智慧型手機中實現即時 AI 攝影。
- 張量處理單元 (TPU)。加速嵌入式設備中的深度學習推理。
這些進步使得人工智慧即使在電力受限的環境中也能有效運作。
人工智慧系統的傳統驗證
即使有了人工智慧,傳統的驗證仍然至關重要:
| 方法 | 在人工智慧系統中的作用 |
| 靜態分析 | 檢查模型結構是否有設計缺陷。 |
| 單元測試 | 驗證非 AI 組件,例如感測器接口,而 AI 模型則經過資料驅動的驗證。 |
| 程式碼覆蓋率 | 確保像 MC/DC 一樣進行詳盡的測試以符合 ISO 26262 要求。 |
| 可追溯性 | 將人工智慧行為映射到系統要求,這對於審計至關重要。 |
混合方法(將傳統測試與特定於 AI 的方法相結合)對於認證至關重要。
策略快速列表
- 優化 AI 模型(修剪、量化)以適應嵌入式限制。
- 凍結訓練模型以確保確定性、可證明的行為。
- 使用 XAI 工具實現透明度和合規性。
- 加強模型以抵禦對抗性攻擊。
- 利用專用硬體(NPU、TPU)高效執行 AI。
- 將傳統驗證(靜態分析、單元測試)與人工智慧感知技術結合。
概括
儘管 AI/ML 正在改變嵌入式系統,但安全性和合規性仍然是絕對的首要任務。透過平衡創新與嚴格的測試、模型優化和監管協調,團隊可以部署安全可靠的人工智慧驅動的嵌入式系統。
