
今年AI科技的發展將更為迅速,但伴隨而來的風險也水漲船高,包含駭客使用AI工具,能更快速挖掘漏洞及開發攻擊技術,甚至或於開源AI工具中植入後門等議題,均將升高對資安防護的衝擊。加上,近兩個月因開源AI代理人(AI Agent)軟體OpenClaw快速崛起,亦升高代理人機制的資安風險,使得美歐資安政策亦開始調整,例如2026年3月美國發布AI國家政策框架(A National Policy Framework for AI),似乎也開始擔憂開源AI代理人發展後,社會將遭受更多的資安攻擊與認知作戰(深偽影片),影響兒童心智,及干預民主發展,開始畫下紅線。近期,歐盟則強調開源AI發展,須符合資安韌性法(EU Cyber Resilience Act, CRA)第24條規定,即開源軟體開發者義務;均可做為我國AI基本法施行的他山之石。
一、開源AI代理人龍蝦崛起與資安風險
駭客使用AI工具執行自動化挖掘漏洞及攻擊模式,早在去(2025)年,微軟在其長達85頁的《2025年數位防禦報告》就指出,越來越多的駭客使用AI工具,擴大社交工程(釣魚)規模、自動化橫向移動攻擊、挖掘漏洞及規避資安防禦機制;同時,隨AI代理型惡意程式發展,恐能即時調整其策略,而將使政府與大企業更難防禦攻擊,甚至影響數以萬計的中小型企業生存。
隨今年免費開源AI代理人(AI Agent)軟體OpenClaw(前身為 Moltbot 和 Clawdbot)快速崛起,也升級資安威脅;就此,2月微軟的研究報告:《安全運行 OpenClaw:身份、隔離和運行時風險》就指出,AI代理人將改變資安縱深防禦邊界,而提升風險,主要包含:
(1)注入AI代理人攻擊:攻擊者可以將惡意指令隱藏於代理AI所讀取的資料中,除非用戶設定了嚴格的限制,否則攻擊者可以控制工具或修改其設定。
(2)AI代理人型惡意程式:駭客利用代理AI惡意程式碼,入侵使用者。
同時(2026年2月),亦有資安情資公司(Hudson Rock)指出攻擊者竊取了OpenClaw AI 助理的設定檔,進一步研究發現駭客攻擊目標,不是僅是利用OpenClaw弱點,而是部署資訊竊取程序,從受感染的系統中,竊取敏感檔案。舉例來說這兩個月OpenClaw AI 的三個重要資安漏洞CVE-2026-25253、CVE-2026-25157、CVE-2026-32920(詳見表1),就是讓駭客可以利用Gateway、SSH 連線模組漏洞,及植入惡意工作區外掛程式等方式,達成入侵之目標。
有趣的是,OpenClaw似乎發現資安專家的擔憂,故2026年2月宣布與VirusTotal合作(隸屬Google),未來發佈至ClawHub的工具,將使用VirusTotal的威脅情資進行掃描,且將公布威脅模型、公共資安藍圖,及程式碼庫的資安稽核方法論。
因此,當組織須使用OpenClaw AI助理時,建議將OpenClaw AI的運行隔離於虛擬機下運行,同時須建立以下資安機制:
(1)使用專用憑證及隔離敏感資料
(2)監控OS使用狀態
(3)建構開源AI的漏洞修補及防護策略
(4)建立備份及備援機制
表 1 OpenClaw的重要資安漏洞
| 年度 | 漏洞 / 案例 | 威脅類型 | 資產 | 攻擊影響 |
| 2026 | CVE-2026-25253 | 設定竄改 / 存取控制失效 | OpenClaw Gateway | 可任意修改網關位址 |
| 2026 | CVE-2026-25157 | 指令注入 | OpenClaw SSH 模組 | 執行任意指令、完全控制系統 |
| 2026 | CVE-2026-32920 (CVSS 8.6) | 任意程式碼執行(Arbitrary Code Execution)不安全外掛載入 | OpenClaw 的使用者環境、系統主機 | 攻擊者可透過在複製的倉庫中植入惡意工作區外掛程式,當使用者從該目錄執行 OpenClaw 時,自動載入未經信任的外掛,導致惡意程式碼在使用者系統上執行 |
二、美國AI監管政策的調整
從去(2025)年美國川普總統就任後,於該年7月發布的《人工智慧行動計畫》就不斷地強調AI科技的監管,採促進發展之原則,即重視AI漏洞監管而非掌控內容;故於年底(12月)發布「確保人工智慧國家政策框架」(Ensuring a National Policy Framework for Artificial Intelligence) 行政命令,以建立統一的聯邦AI監管政策框架。
2026年3月美國發布AI國家政策框架(A National Policy Framework for AI),宣示聯邦政府對各州人工智慧法律的優先管轄權,且將此提交與國會的重要策略,包含:
(1)聯邦AI監管政策框架:該框架明確要求禁止各州監管AI的發展。
(2)智慧財產權:訓練受版權保護資屬於合理使用,但有爭議時,應由法院裁決;防止未經授權將AI產生的數位副本用於商業用途,但例外讓表達性作品合規。
(3)兒童安全:強化兒童使用AI的資安和隱私保護,及防止AI的深度偽造濫用,而影響孩童認知。
(4)防止政府遭AI科技脅迫:禁止使用AI干擾黨派或政治意識形態。
(5)能源安全:居民使用者不應承擔資料中心的電力成本,故政府須提高電網之可靠性。
(6)不設立新的AI監管機構:依現有機構及相關標準監管。
不過,從上述AI國家政策框架卻不難發現,美國政府似乎也開始擔憂開源AI代理人發展後,社會將遭受更多深偽影片,影響兒童心智,及衝擊民主發展,開始畫下紅線。
三、歐盟資安韌性法對於AI開源軟體的管理模式
值得注意的是,隨明年底(2027年12月11日)歐盟將全面實施歐盟資安韌性法(EU Cyber Resilience Act, CRA),對於「具有數位元素的產品」(Products with digital elements, PDEs),執行資安風險分類及評估的機制,也將更為完整。但隨著免費開源AI代理人軟體OpenClaw的快速發展,駭客將利用其開發自動化攻擊技術,甚至於該AI工具中植入後門等威脅,甚囂塵上,也挑戰未來歐盟資安韌性法的執行成效。
就此,2026年1月12日歐盟引用加拿大稅務局案例,說明開源軟體開發者的資安義務,其中若開源AI代理人(AI Agent)軟體提供於市場應用,且為商業活動則為CRA的合規範圍,相反若無獲利機制,就非為商業活動(如開源AI代理人的原始碼開發者)。
換句話說,若組織或個人使用開源的AI代理人(AI Agent)開發商業軟體或應用,除須執行CRA執行資安風險分類及評估機制外,更須依該法第24條規定負擔開源軟體開發者義務,包含須建構及遵循資安政策,執行系統安全開發程序,及合乎漏洞通報、處理及修復等合規機制(詳見表2)。
表2 CRA規範開源軟體開發者的資安義務
| 分類 | 義務事項 | 具體內容說明 | CRA條文依據 |
| 漏洞通報 | 制定並記錄可驗證的資安政策 | 應制定並以可驗證方式記錄網路安全政策,以促進安全的含數位元素產品開發,並支援漏洞處理 | 第24條第1項 |
| 促進漏洞通報機制 | 政策應促進產品開發者依第15條規定自願通報漏洞 | 第24條第1項(援引第15條) | |
| 配合開源特性設計通報流程 | 在制定政策與通報安排時,應考量開源軟體管理員的特殊法律與組織性質 | 第24條第1項 | |
| 促進漏洞資訊共享 | 政策內容應促進在開源社群內部共享已發現漏洞的資訊 | 第24條第1項 | |
| 處理及 修復 | 漏洞之記錄、處理與修復制度化 | 資安政策應明確包含漏洞的記錄、處理及修復相關安排 | 第24條第1項 |
| 協助開發人員有效處理漏洞 | 開源軟體管理員的政策應促進開發人員能有效處理產品漏洞 | 第24條第1項 | |
| 與市場監管機構合作 | 應依市場監管機構要求合作,以減輕含自由與開源軟體之數位元素產品所帶來的資安風險 | 第24條第2項 | |
| 提供政策文件 | 依合理要求,以監管機構可輕易理解的語言,提供第1項所述政策文件(紙本或電子形式) | 第24條第2項 | |
| 事件應變 | 適用一般資安要求 | 參與開發含數位元素產品之開源軟體管理員,須適用第14條第1項之資安義務 | 第24條第3項(援引第14條第1項) |
| 嚴重事件之應變與通報 | 若嚴重事件影響產品安全,且事件影響管理員為開發產品所使用的網路與資訊系統,則適用第14條第3項與第8項義務 | 第24條第3項(援引第14條第3項、第8項) |
本文與信傳媒同步刊登
作者為元智大學資管系 專任助理教授、兼任台灣駭客協會理事
- 開源AI代理人崛起的資安風險,與歐美國家的資安政策因應 - 2026 年 4 月 6 日
- 2026年AI資安威脅──台灣借鏡歐盟CRA的中小企韌性策略 - 2026 年 2 月 23 日
- 台灣《AI基本法》實行後,成立國家AI戰略特別委員會之建議 - 2026 年 1 月 5 日