HHRI/研發 EV 𝝅 共享平台 聯合產官學各界 布局未來網宇安全

【鴻海研究院】
108 人閱讀

電動車、車聯網是這兩年產業最熱門 的議題,無論是新的車子、新的商機、新的競爭者或是新的佈局,在在吸引所有人目光;尤其鴻海集團號召發起 MIH (Mobility In Harmony) 平台之後,帶動整個生態系發展。 然而,當中更值得重視車輛的資通安全,因 為在車的使用情境中會牽涉到人的生命安全與人的隱私。

圖片來源:pixabay

當人進到車子裡面,內部通訊可能就開始被記錄,為了保護人的安全,各種駕駛數據、行為數據甚至通話紀錄都可能會被紀錄下來,但是否會侵犯到個人隱私?數據有沒有可能外洩?車子智慧化 AI 模型有沒有可能被攻擊?攻擊會從什麼地方來?如何有效預防?這都是資通安全研究所目前積極投入研究的重點項目。

從資安開始的整合性 EV 實證平台

首先,為了讓資安研究人員了解實車的軟硬體,資安所基於 MIH 公開的 Open EV  Platform 平台架構,與美國麻省理工學院 (MIT)Media Lab 合作,共同打造「 EV 𝝅 實證平台」。 EV 𝝅 電控訊號相容於實車, 其車體為模組化結構,可拔插運算模組、各類無線模組、感測器(LiDAR、雷達、相機 等)、制動器等等。 EV 𝝅 軟體與自駕系統皆使用開源軟體,可自由移植功能元件與演算法。

EV 𝝅 由鴻海集團董事長暨鴻海研究院院長劉揚偉親自命名,其用意在「不是只有資安,只是我們從資安開始」,未來包括人工智慧、通訊、量子和半導體領域都可以用這個平台做實驗,並逐漸延伸到機器人 (Robotics)領域。更重要的是,基於「分享、 合作、共榮」的理念, EV 𝝅 會採取開源的方式公開給各界使用。

EV 𝝅 上可實現對電動車或自駕車的各類型資安攻擊與防禦,實證從最內底層 CANBUS 電控訊號、ECU 韌體安全、通訊安全、向上到應用軟體安全與AI Vision安全等。這完全涵蓋資安所框定的四大 EV 資安重點:V2X Security、Intra-networking Security、Application Security ,以及 AI Security。

電動車資通安全四大範圍

電動車資安首先最關鍵的是通訊。第一個要注意的是資料從哪裡來?在目前電腦網路環境發生的資安問題,在車聯網的環境中同樣會重演。例如冒名資訊如何防範?如何確認資料來源?是否值得信任?這類傳統資安問題將因為車聯網而形成新的挑戰。

車聯網的運作得兼顧時效與正確性。因為每台車子行駛中所溝通對象絕大多數是陌生人,必須導入公開金鑰基礎建設 (Public Key Infrastructure,PKI) 或區塊鏈 (Blockchain) 技術來管理使用者身份認證。為了維護個人隱私,數據必須匿名;但如果發生了意外需要進行調查時,又需要反匿名。這些都是觀念的重要轉變,也是目前極需和各界共同投入研究的重要技術。

目前,鴻海研究院和中華電信集團、香港城市大學、國立陽明交通大學、奧義智慧科技等單位合作,研究包括如何找出攻擊腳本以事先評估風險,做出有效的防禦機制;還有行車軌跡感測、類似飛機的黑盒子完整紀錄,都正在持續協力進行技術研發。

倡議 AI Security 超越技術的宏觀布局

AI Security 也是鴻海研究院密切關注的領域。2021 年資安所和人工智慧所就開始倡議,電動車的 AI 系統不能只關注分析與預測的準確度,AI 本身的安全性更是不能掉以輕心的問題。

由於這個領域很新,資安和 AI 專家都無法完全熟悉掌握,因此鴻海研究院跟香港城市大學、陽明交通大學共同探索研究。包含從資料蒐集到模型訓練,有哪些真實環境中的條件會造成誤判?假設遇到外界來的攻擊,在防禦同時是不是會降低正確性?如何在正確率與安全性中間取得平衡?等研究議題。

而「自駕的 AI 正確率降低多少、安全性提高多少,這個答案不是鴻海可以單獨決定,因為這不單純是科技的問題。因此,研究院在 2022 年開始提出人工智慧系統的資安問題,並且和工研院、人工智慧科技基金會等多個單位合作,從 AI 安全的框架、影響範疇、技術創新多管齊下,共同倡議攜手打造可信任的 AI 生態系。

凝聚各界共識 迎接 AI 賦能安全時代

在 2022 年底 ChatGPT 等大型人工智慧生成模型推出之後,AI 安全是各種產業立即會面對的挑戰,世界積極投入發展 AI 技術的國家,幾乎也都同步投入資安的認證標準研究,從美國、中國、歐盟、德國、英國、新加坡等,在擘劃國家 AI 發展策略時就將 AI 安全視為不可或缺的部分。由於 AI 的特質跟過去電腦資安的概念不一樣,無法等被攻擊或被植了木馬程式才解決,「必須是 default (預設前提),不能再是補救。」

美國國家科學及技術委員會(NSTC)定義,AI Security 應該包括四大重點,首先,系統規格驗證,確保功能、安全、穩健性與公平性;其次是 AI 所做的決策能被信任;再來,能偵測與減少對抗例的輸入(Adversarial Inputs);最後則是 AI 賦能系統能夠被信任。

這四項裡就包括了技術、專利標準、認證、法令規範、甚至文化等多種領域的共識,加上應用範圍廣,已經成為大家生活的一部分,直接牽涉每個人的財產、健康甚至是生命安全。目前政府部門已經投入相關計畫,並期待能借鏡資安過去的發展經驗,及早規劃完整策略,共同迎接 AI 賦能新時代。

全文轉載自鴻海研究院TECH BLOG

留言評論
【鴻海研究院】

延伸閱讀