鴻海研究院攜手人工智慧科技基金會舉辦「NExT Forum:AI Security」線上論壇,廣邀國內外專家學者,從應用層面分享人工智慧本身所面臨的資安議題,並借鏡德國 AI 標準化藍圖,討論如何發展值得信任的 AI,讓台灣企業能及早布局
創新工場董事長兼執行長、鴻海研究院諮詢委員李開復在開幕致詞時表示,AI是在算法、算力和數據三者並進的過程中,帶來新機會。雖然,大數據是推動進步的能源,但如何治理數據將是個挑戰。他指出,大數據的環境下帶來包括資料隱私保護、AI安全隱患、AI倫理和數據偏見等問題。例如透過製造圖片的雜訊,導致AI模型識別出現問題;或是在訓練AI模型時,因為男女資料比例的失衡,造成單一性別的偏見,這些都是我們必須面對的挑戰。
例如AI造成隱私的損害,李開復認為,某部分是誤解了AI,「隱私問題不是AI造成的,而是個人數據是存在什麼地方,」他說,如果給一間公司太多數據,這家公司在個人數據握有太多權力且會犯錯誤?而隱私也不是都不能拿出來,因為隱私就是一個交易,有些人會願意提供數據以換取更為便利的生活,但有些人可能不願意拿隱私交換。因此,未來將會需要個人隱私的選項,提供不同程度的隱私交換或保護。
面對個人數據被竊取或濫用的威脅,李開復認為,除了設立法令、法規,包括AI安全、倫理與數據偏見的問題,都有可能利用技術方案解決。例如透過聯邦學習或是同態加密等技術,在保有數據隱私的狀況下,提供模型訓練資料。此外,也可以利用新的演算法或技術,確保倫理與偏見的問題。
李開復表示,AI治理是全球必須共同解決的事情,每個國家都應該提出適合自己的方案,目前他看到在這些共識間存在許多相似性,他相信許多國家能在求同存異下,尋找跨領域的合作機會。「技術的力量是非常龐大的,每一次重要技術的革命,都能夠推動人類進步,」李開復指出,而每一個技術革命剛開始都會出現一些新問題,例如電剛出現時,可能會電死人;網際網路剛開始使用時,病毒的問題非常嚴重,但這些都靠著技術的不斷進步而解決。
「技術向善、造福人類是我們技術人共同的目標,」李開復強調,這次論壇最重要的核心就是,技術最終將為人類帶來巨大優勢,如果它在剛出現時發現問題,將需要技術人加上法律法規來克服問題,達到最終目標。
鴻海研究院執行長兼資安所所長李維斌認為,隨著資安議題逐漸受到重視,AI帶來的新威脅和脆弱點也必須即刻受到重視,這正是台灣發展AI Security的重要機會。金管會去年宣布2022年第一季前,符合一定條件的證券商、期貨、投信投顧與銀行業,須設立副總級以上資安長,顯見資通安全(Cybersecurity)的重要性。然而,這幾年已廣泛應用於車聯網、數位健康、機器人的人工智慧科技,影響雖已如此全面,但針對AI安全的討論卻尚未獲得廣大的重視,這樣專注功能而可能重蹈資通安全常常亡羊補牢的窘境,著實令人憂心。
李維斌提到,AI是個很棒的工具,但此刻更需要注意的是,AI也可能成為目標,不僅駭客會對AI有興趣,甚至AI本身也可能成為駭客。面對快速普及的AI應用,鴻海研究院人工智慧所所長栗永徽表示,深度學習如對抗式攻擊、深度偽造(Deepfake)帶來了安全性的風險與危機,這將影響AI應用的發展與限制,AI和Security都應該更積極地展開對話才行。因此,研究院集結兩大領域於產官學界的力量,聚焦在AI Security議題的討論,並藉此次的倡議,讓世界看到鴻海集團及台灣各界在AI安全性的影響力,以期在國際間扮演重要角色。
全文轉載自鴻海研究院TECH BLOG
- HHRI/鴻海啟用全台業界首座離子阱實驗室 締造量子科技里程碑 - 2023 年 10 月 28 日
- HHRI/AI技術的發展如何影響半導體的發展?專訪鴻海研究院半導體所郭浩中所長 - 2023 年 9 月 23 日
- HHRI/攜手產學界開創新模式 鴻海研究院突破碳化矽半導體技術 - 2023 年 9 月 16 日