近期ChatGPT爆紅後,除了AI技術第一次向世人展示他驚人的製造與生產輔助性能,因而有各種「產業革命」或「勞動革新」的呼聲,甚至導致各種「AI滅世」的「反烏托邦」言論出現外;在國際政治經濟領域,更把美中AI技術競爭,視為連動「晶片戰爭」的第二個「戰略制高點」。美國《晶片與科學法案》(Chips and Science Act, CSA)用擴大「實體清單」(entity list)方式,限制高階半導體、相關製造設備、零件與人員進入中國或為中企所用。
美國商務部主導上述法案與清單的目的,就是為了避免高階半導體所支撐的「量子電腦」超高速運算技術與中國的競爭,如同「5G通訊技術」般,被中國「彎道超車」。進而在更高段的AI競爭中也敗下陣來。但這裡講的「AI」究竟是甚麼?若是在這一波美中競爭裡,被美國視為國家競爭力重要支柱的AI技術發展,真的輸給了中國,那對美國真的會有致命的影響嗎?或者廣義的來說,以中俄等國為首的威權體制,無論其AI技術發展強弱,對全球民主國家來說,都是一種威脅呢?
機器學習(Machine Learning)作為一種AI
當代我們指的AI,即人工智慧(, AI)的簡稱。但無論擔心害怕獨裁國家領先會顛覆民主國家的AI,或是美中戰略競爭中想要確保的關鍵技術AI,指的都是有關「人工智慧」中,「機器學習」(machine learning)功能的競爭優勢。機器學習作為廣義AI的一種,重點就在「機器(電腦)如何學習」?美國卡內基梅隆大學電腦工程相關權威學者Tom Mitchell就對機器學習下了一個定義。
在1997年,名為《機器學習:一種人工智慧途徑》Machine Learning: An Artificial Intelligence Approach的經典教科書中,Tom Mitchell認為,「機器學習」指的就是「用資料數據蒐集形成經驗,並且透過這些經驗,改善演算法(algorithms)解決問題的能力」。也就是說,只要符合這整個「以達成特定目標為前提,去撰寫設計演算法,透過特定步驟來解決問題;並蒐集足量數據形成經驗,依靠經驗提升解決問題能力」的過程,就被認定為是一種「具學習能力的機器」,因此稱之為「機器學習」。
機器學習的廣泛運用
我們若以串流音樂平台的「電台功能」為例。作為一種機器學習的應用,電台功能演算法的設計目的,就是要推薦使用者喜歡的、類似曲風的歌曲給使用者。而抓到使用者的偏好跟品味,就是這個演算法設計的目標。而演算法推薦打中使用者的準確度,會隨著使用者收聽習慣的累積而增加。因為使用者的收聽數據,豐富了演算法能蒐集的數據、增加了演算法的經驗。經驗越豐富,演算法透過經驗來自我修正後,推薦的能力就越強、精準度就越高。
而機器學習透過經驗優化解決特定事務的能力,若用在政治事務決策上,則也是以同樣的流程,透過蒐集數據,形成經驗。經由經驗的累積,發現規律和模式。並且將這些規律和模式構成的知識形成反饋,用於改善由工程師已經設計好的演算法,讓這些演算法提升對未來預測的能力。並最終透過演算法能力的優化,用於協助改善決策精準度,可能是順利解決危機、或是提升群眾的滿意程度。
威權與民主之爭下的機器學習
所以,回到我們一開始問的問題時可以發現,很多專家之所以會憂心,美國會在美中有關「機器學習」的AI競爭中敗下陣來;甚至認為,威權國家在AI的開發上,有其先天的優勢,而這項優勢,甚至最終會導致威權陣營在與民主陣營的全球競爭中勝出。就是因為,機器學習的機制裡,有「蒐集大量數據優化演算法解決問題能力」的特質。而威權國家因為缺乏有效的法治工具,無法對政府蒐集各種使用者數據進行監管。所以在這樣的海量數據優勢下,若美國沒辦法阻斷中國取得硬體(晶片、製造設備、零件),那在軟體開發上,就很有可能因為數據蒐集的劣勢,而讓民主國家在這輪AI競賽中輸給威權國家。
但對Henry Farrell, Abraham Newman & Jeremy Wallace這三位國際政治學者專家而言,上述這個說法,有兩個層次上的混淆。根據他們在美國權威外交政策分析期刊《外交事務》的說法,他們認為,一方面,威權國家的確有數據蒐集量的優勢,但機器學習是由「演算法」和「數據蒐集」兩個部分構成。威權國家雖有能耐蒐集大量數據,但在演算法設計上卻因為各種理由出現問題,所以未必會有所謂的「威權優勢」;另一方面,或許在因為各種不同目的而設計的演算法上,未必會有「威權優勢」。但類似ChatGPT這種可以大量生成以假亂真文字、圖像或影像的機器學習軟體,若高度運用在錯假訊息的製造上時,則威權國家對民主國家發動資訊戰,在干擾選舉或撕裂社會、降低反抗意識上,成本會更低、效率會更高。
威權的假性AI優勢
一般咸信,中國有龐大數據庫又缺乏監管機制,「可以任意使用私人數據」讓中國的演算法有優勢,會在AI競爭中勝出。但上述《外交事務》有關民主與獨裁國家AI競爭一文的三位作者,就針對這種普遍的迷思提出了三點反駁。
第一、威權政府無法取得可信的反饋意見就無法優化演算法,也無法在演算法設計時,問出對的問題,提供民眾需要的功能
根據三位作者的說法,「機器學習」的運作原理其實和「政府決策」的運作原理一樣,兩者都是由一個「控制論」系統(a “cybernetic” system)構成。該系統能對反饋做出回復與適應。只是在機器學習的控制論系統裡,是演算法透過蒐集「數據」(反饋)來優化自己的精準度(回復與適應反饋);而在政府決策的控制論系統裡,政府透過蒐集「民意」(反饋)來優化自己的滿意度(回復與適應反饋)。
所以,民主國家設計用來優化施政、提升滿意度的「演算法/政策」本身就有問題時,可以按照民眾的可信意見(受法律保障所以可以自由發表真實意見的公民、媒體、反對黨、利益團體)去修正「演算法/政策」,藉此將「演算法/政策」修正成符合民意的狀態;而威權國家所設計的「演算法/政策」也有部分是用來優化施政,但當威權國家的「演算法/政策」本身有問題,卻沒有管道可以取得可信意見去修正「演算法/政策」時,當然也沒辦法將「演算法/政策」修正成符合真實民意的需求。如此一來,就算威權國家沒有法令限制,所以有隨手取得大量數據,以用於優化演算法的優勢;但當演算法本身本來就有問題時,威權政府卻沒有管道可以知道如何修正演算法。
而且對威權國家而言更困難的是,威權政府既不想要有人出來發表一些反對意見,挑戰政權的正當性;但又希望能夠得到正確的民眾意見來調整政策,藉此穩固政權的正當性。因為對一個威權統治者來說,要在「短期政治穩定」與「長期決策有效」之間做出權衡,是很困難的。所以我們會常常看到很多,為了「短期政治穩定」而犧牲「長期決策有效」的政治決定,進而破壞了政權的正當性基礎。普丁做出入侵烏克蘭的災難性決定,就是很典型的例子。
第二、威權政府缺乏管道取得可信意見,因此無法修改演算法;如此蒐集的大量數據,只會達成演算法原先設定的目標,取得威權政府想要的答案,甚至加強威權政府原本所持的錯誤信念與偏見
但相對於「為了優化施政、提升滿意度『演算法/政策』」的存在,威權國家的「演算法/政策」有很高的機率,是用在監控與壓迫人民、藉此鞏固政權。這種功能天生與民意背道而馳的前提下,要靠取得真實民意,來了解「如何才能更精確監控與迫害人民」這件事情本身就顯得很沒邏輯。所以在沒有真實民意可以修正演算法的情況下,威權政府靠著使用者足跡或數據,最終就只能加強原有演算法的功能,形成一種「領導者決定程式設計者,設計者決定演算法,演算法反映領導者意識形態偏見;蒐集數據優化演算法,演算法放大領導者意識形態偏見」的過程。
也就是說,演算法對資訊蒐集的分析結果,只會是「威權統治者偏好」的結果,而不是「貼近被統治者想法」的結果。若今天的演算法設計是為了輔助某項政策,那麼演算法給出的決策修正方案,還是只會按照統治者的既定偏好來製作。最後,我們經常神話的那種,大量依賴演算法來執政的「數位威權主義」,會讓整個需要靠正確意見來進行修正的「演算法/政策」體系全面崩潰,一條道直接走到黑,成為一種「讓現狀成為邏輯上必然的工具」(apparatus that gives the status quo the aura of logical inevitability)。
就有報導顯示,中國「網信辦」發現,AI言論審查效果不佳。因為高層和寫演算法的人,其實沒有管道知道下面的人真心都在想甚麼,所以無從在演算法設計上從頭修正,去過濾出禁忌言論;只能在錯誤的演算法前提下,蒐羅一大堆垃圾數據,結果讓演算法的表現更荒腔走板。
最典型的例子就是「關鍵字刪帖」鬧出太多笑話,最後還是徵用大量人員,靠「手動刪帖」來進行言論審查。另一方面,習近平一直以來在談的「精準扶貧」,也是鬧出了不少笑話。原本以為可以靠機器學習模式,用演算法和大量數據來找出貧戶進而快速提供協助,藉此達成「整體脫貧」。但「人工智慧」始終是玩不過中華民族五千年的偉大「傳統智慧」。一些省市中低階官員透過人力,將農村裡的貧戶趕至都市公寓。讓統計數字裡面,這些農村貧戶「表面」看起來都「快速脫貧」。等到風頭過了,又把他們趕回農村。最後,這種「你追我跑」的事情實在太多,「精準扶貧」就在官方文書裡,越來越少提及。
中國省市中低階官員和人民這種集體「陽奉陰違」的模式,自然不是AI時代才有的新玩法。著作等身的耶魯大學政治人類學者James Scott,在其經典著作Seeing Like a State中就曾提到,20世紀的國家決策之所以錯誤百出,就在於國家太不接地氣,只能透過官僚和數據來看世界。如今看來,AI工具的出現,就是強化了這個1998年James Scott所說的「官僚和數據偏見」而已。而且這種狀況也不只發生在威權國家或落後國家,美國警政依靠AI輔助增派警力去犯罪率較高區域。結果有人研究發現,這些警力進駐區域通通都是有色人種集中的區域。而這個「犯罪率」較高的設定,其實就是「逮捕率」較高的設定,等於「黑人容易犯罪」的種族歧視偏見,又經過演算法加強了一次。
第三、演算法下的推播,只能強化偏好沒辦法改變偏好,所以其實帶風向的能力也很弱
正是因為在機器學習的概念裡,演算法的設計方式,決定了演算法想要達成的目標;而這個設計,必然帶有設計者的意圖與偏見。所以數據無論蒐集的再多,最後能做到的,也只是不斷鞏固演算法當初設定的目標,讓達成目標的機率變高。所以,其實機器學習在行銷上,只能做到用演算法去決定如何推播廣告,讓原本喜歡A的人買更多A,或是掏錢去買A+;而不會因為演算法下的廣告,就讓原本喜歡A的人改成喜歡B。如此我們可以知道,如果連商品挑選這種簡單偏好選擇,要靠演算法推播來改變都是困難的;那要靠演算法推播去改變人們根深柢固的觀點和信念,那更是不可能。
所以一些人號稱將演算法運用在政治宣傳上有神效,這種說法也是相當令人懷疑。按照前面所提到的行銷邏輯,演算法推播也只能加強既定偏好或偏見,而沒辦法改變這些既定偏好或偏見。根據Facebook的內部調查顯示,在演算法的推播下,人們確實會被引導找到更激進的內容,但這是因為這些人本來就想找這些東西;而不是因為演算法的推播而開始找這些東西。
Youtube的報告也顯示,演算法推播的影片,會引導使用者,找到他們本來就想要的東西;而沒辦法讓他們對本來不感興趣的東西,變得感興趣。所以一些有關劍橋分析(Cambridge Analytica)諮詢公司,如何透過演算法下廣告幫川普打贏選舉的說法,其實是神化了演算法的能耐。最終,也只是把民主社會各式各樣原本應該歸咎於「人」的衝突與混亂因素,輕巧的卸責給了「機器」。
所以綜合來看,要把大數據看成國力、把AI看成治理與決策的工具,無論對威權或民主國家,都會是難題。因為AI效能的強大與否並非來自數據的多寡,而是如何透過正確的意見反饋來修正演算法,讓AI的機器學習能力提升,進而幫助政府做出更多符合民意的正確決策。但從這點看,民主國家相對於威權國家,仍有相對的優勢。但若威權國家把機器學習功能,整套用在壓迫人民或攻擊民主國家時,這種武器化的演算法,就是一種相對有效、防不勝防的工具。
威權的真實AI優勢
著有《人類大歷史》的現象級以色列歷史學家哈拉瑞(Yuval Harari)就認為,AI會集中數據的同時,也是在集中權力。因為威權統治者可以透過蒐集數據的過程,了解民眾的基本偏好需求,進而提供給群眾一種「膚淺的、舒適的、威權政府早就預期會有甚麼情緒反應的訊息」給群眾。藉此讓群眾的情緒無止盡的發洩在這些不間斷的、由統治者提供的膚淺、情緒性訊息中,藉此形成一種「無形但有效的新形態社會控制」。
在這種情況下,威權政府就可以透過看似開放的社交媒體,提供封閉式、可預期的訊息,來控制公眾意見、掌握公眾心態。一些威權國家通行的社群軟體如微博、微信,就是這種在監控下,內向封閉的訊息螺旋。
除了上述這種對內壓迫外,武器化的AI也可以被威權國家用在對外攻擊上。像俄羅斯或中國,就經常透過錯假訊息或仇恨言論,來擾亂民主國家的言論市場與選舉活動。他們可以透過像ChatGPT之類的軟體,更有效率的大量製造幾可亂真的文字、圖片與影片癱瘓民主國家的言論市場,抹黑、栽贓特定政治人物,破壞群眾對選舉與制度的信任。最終憑藉錯假訊息與仇恨言論,頗壞民主國家的決策系統,使人民得不到正確的訊息,也無法反映真實的民意。
所以,在我們談論AI如何成為威權統治者工具時,先要釐清我們現在在談的AI,多數是指一種由「演算法與數據蒐集」共同構成的「機器學習」機制,才能夠了解AI輔助決策的強項與弱項,不會陷入一種「信者恆信」的錯誤恐懼狀態,過度放大威權統治者使用AI後沒有危險的部分(技術競爭、決策輔助),而忽略了真正有威脅的部分(錯假訊息製造資訊戰)。
余自束髮以來,粗覽群書,獨好屠龍之術,遂專治之,至今十餘載矣。從師於南北東西,耗費雖不至千金,亦百金有餘。恨未得窺堂奧,輒無所施其巧。由是轉念,吹笛玩蛇,偶有心得,與舊親故共賞,擊節而歌,適足以舉觴稱慶也。
- 碎裂資本主義(Crack-up Capitalism):新自由主義的穢土轉生 - 2024 年 10 月 3 日
- 張文貞的台灣憲政主義魔法 - 2024 年 9 月 5 日
- 若然,川普歸來的混亂根源 - 2024 年 4 月 18 日