哈拉瑞著《連結》筆記 (十三): 我們還能對話嗎?
民主的未來 (GPT-4o 生成)
第三部電腦政治學第九章民主制度: 我們還能對話嗎?
文明的誕生,始於官僚制度與神話故事的結合。如今電腦網路已成為一種新形態的官僚制度,比起過去所有人類官僚制度都更為強大,也更為無情。電腦網路也可能創造出存在於電腦間的神話故事,其概念之複雜難解,將遠遠超越所有人造的神祇。但這電腦網路雖然有無窮的權力,卻也可能使人類文明走向毀滅。
工業革命的教訓
人類確實有充分的理由,應該對強大的新科技抱持幾分畏懼。就算這些科技到了最後是利大於弊,但在那個快樂結局之前,往往得先經歷百般磨難與考驗。新科技之所以常常帶來歷史上的災難,並不是科技本身有什麼問題,而是人類得花點時間才能學會善用科技。
工業革命的其中一項昂貴的實驗,就是現代帝國主義。這些工業重地的帝國主義思想家、政治家與政黨,一致認為唯有帝國的形式能夠撐起工業社會。數以百萬計的原住民就這樣看著自己的傳統生活,被工業帝國軍隊的巨輪輾過。要等到經過一個多世紀的苦難之後,才讓大多數人意識到工業帝國這個主意有多糟糕,也發現其實有更好的方法能建立工業社會,並確保取得必要的市場與原物料。
關於如何建立工業社會,史達林主義與納粹主義也是兩場無比昂貴的實驗。
除了以上這些災難,工業革命也破壞了全球生態平衡,導致一波物種滅絕。
比起二十世紀的科技,二十一世紀的科技更具威力,也可能造成更大的破壞。因此,能夠犯錯的空間也更小了。
民主制度的優勢
自由民主制度的一大優勢,就在於擁有強大的自我修正機制,能避免過度狂熱,也保留了發現自身錯誤、改變行動方針的能力。
民主制度,是依賴資訊科技才得以存在,而在人類歷史上的大部份時間,根本不可能出現大規模的民主。
新的電腦網路鐵面無私、不講情面,很可能會抹殺人類的隱私,而且在獎懲人類的時候,被批判的,除了我們的言行,甚至還包括我們的思想與感受。在這種情況下,民主制度還能存活嗎?
對於這些新的監控能力,民主國家可以選擇有節制的運用,以不侵犯公民隱私與自主權的方式,為公民提供更好的健康照護與安全保障。
民主原則之一: 為善
如果電腦網路要蒐集關於我的資訊,必須是用來幫助我,而不是操弄我。目前已經有許多傳統官僚體系 (例如健康保護體系) 成功地採用了這項原則。
醫師、律師、會計師和心理諮商師等受我們所託,取得關於我們個人生活的資訊,也就應該負起受託人的責任,依我們的最佳利益行事。
如果科技龍頭目前的商業模式無法負起適當的受託人責任,政府可以要求他們回歸傳統商業模式,也就是讓使用者付費。
民主原則之二: 去中心化
民主社會絕不該允許所有資訊集中在一處,不管那是政府或是民間企業。
民主制度想要存活的話,效率低一點並非壞事。
讓許多資料庫與資訊管道獨立存在,也有助於維持強大的自我修正機制。自我修正機制需要讓不同機構制度達到互相制衡效果。
民主原則之三: 相互性
如果民主制度打算加強對個人的監控,就必須同時加強對政府與企業的監控。
民主需要平衡。政府與企業常會研發各種應用程式與演算法做為由上而下的監控工具。但演算法也可以輕鬆變成由下而上的強大工具,提升政府的透明度與問責制,揭露企業賄賂與逃稅行徑。
民主原則之四: 給人自主空間
在人類歷史上,壓迫的形式分成兩個極端: 一種極端是剝奪改變的能力,另一種極端是剝奪休息的機會。監控系統必須永遠保留讓人改變與休息的空間。
就業市場不穩定,會破壞民主
新資訊技術對民主造成的危險,還不止是監控而已。第二個威脅是自動化可能會破壞就業市場穩定,進而破壞民主。
真正的問題,其實是該如何適應新工作與新情境造成的動盪。若想緩解衝擊,就得預先做好準備,特別是讓年輕世代掌握 2050年就業市場用得到的技能。
未來需要哪些就業技能?
比起運動和社交技能,知識份子常常比較看重智力技能。但是就自動化而言,比起洗碗之類的勞動工作,下棋的自動化要簡單多了。
另一例是醫生的工作比較容易取代,而護理師的工作則很難自動化。
人如果想要在 2050年仍然找得到工作,或許除了培養智力技能之外,在運動與社交技能上也該投入同樣的心力。
電腦的創造力與EQ不輸人類
第二個常見但錯誤的假設則是,認為唯有人類擁有創造力,所以只要是需要創造力的工作,就很難自動化。但事實上。我們對創造力的定義通常就是能夠找出模式,再打破模式。若真如此,既然電腦如此善於辨識模式,在許多領域也就可能會變得比人類更有創造力。
第三個錯誤的假設,則是認為電腦無法取代人類那些需要情緒智慧 (EQ) 的工作,包括心理諮商師到教師等等。我們對所謂EQ的定義如果指的只是要正確辨識情緒、做出最佳的反映,那麼就連在EQ這一塊,電腦的表現也可能遠遠超過人類。
就業市場必然波動劇烈
在未來幾十年,舊工作會消失,新工作會出現,但新工作很快也會改變並消逝。因此,人類的再培訓、再改造絕不是一次搞定,而是需要一而再、再而三,才能讓自己在社會上不被淘汰。要是三年的高失業率就足以讓希特勒上臺,那麼就業市場永無止境的動盪,將對民主造成怎樣的影響?
保守派的自我毀滅
民主政治在 2010年代與 2020年代初期,經歷了一場徹底轉型,展現出來的可說是保守派政黨的自我毀滅。
保守派通常比較謹慎,重要論點可以用柏克 (Edmund Burke) 的主張為代表,認為社會現實的複雜程度遠遠超過那些進步派支持者的掌握,而且人類本來就不太擅長去理解世界、預測未來,所以最好就是一切維持現狀 (就算看起來不公平)。要是改變已經無可避免,也應當有所節制,循序漸進。
到了 2010年代與 2020年代初,許多民主國家的保守派政黨遭到川普這樣的非保守派領導者劫持,搖身一變,成了激進的革命政黨。像美國共和黨這樣的新形態保守派,非但沒有盡力保護既有的體制與傳統,反而表現出高度的質疑。例如對於科學家、公務員和其他為國服務的菁英分子,他們並未表現出傳統的尊重,反而流露出蔑視的眼光。同樣的他們也攻擊像是選舉這種基本制度與傳統,拒絕認輸,也不肯坦然移交權力。
民主中間道路依然可行
沒有人真的知道為什麼會發生這樣的情形。假設之一是,由於技術變革加速,就讓經濟、社會與文化變革也隨之加速,於是讓較溫和的保守派路線顯的不切實際。如果看起來已經不可能保守既有的傳統與機制,某種革命勢在必行,那麼為了阻止左派革命,唯一的手段就是先發制人,挑起一場右派革命。
1930 年代初期的經濟危機,之所以在美國與德國造成截然不同的結果,是因為政治從來不只是經濟因素的產物。威瑪共和國的崩潰,並不只是因為三年的高失業率,另一個同樣重要的因素在於他還是個誕生於戰敗的新民主國家,缺少強大的機構制度與根柢。德國選民是在並非別無選擇的情況下,做出了一個糟糕的決定,這才讓德國落入深淵。
民主法治不該莫測高深
對民主政權來說,把自己搞得高深莫測,這就是個致命的錯誤。要是公民、立法者、記者與法官都無法瞭解國家的官僚體系如何運作,就會無力監督,接著也就會失去信任。
官僚體制仍然以人性為基礎,也就讓人類至少還有機會能找出並修正其中的錯誤。
盧米斯訴威斯康辛州案
電腦很可能會受到自身偏誤的影響,發明出電腦間的神話與純屬杜撰的分類。人類要怎樣才能找出並修正這項錯誤?
這些已經不再是純粹的理論問題了。到了 2020年初,許多國家判決公民入獄服刑的時候都參考了演算法所作的犯罪風險評估,但無論法官或被告,其實都不瞭解演算法究竟做了什麼。
新人權: 得到解釋的權利
隨著社會把愈來愈多決定交給電腦和演算法來處理,民主的自我修正機制、透明度與問責制,都受到挑戰。如果演算法如此高深莫測,民選官員又要怎樣才能監督? 所以已經愈來愈多人要求保障一項新的人權: 得到解釋的權利。
2018年生效的歐盟 ⟨一般資料保護規則⟩ 規定,如果演算法做出對某人的決定 (例如拒絕提供信貸) ,當事人有權得到有關解釋,也能在由人類組成的某個機構和個人面前挑戰這項決定。
但這種權利究竟能否落實,很有疑問。許多科技與系統已經變得如此複雜,沒有任何人有能力真正理解。GPT-4、AlphaGo都是一個又一個的黑盒子,其輸出與決定就是基於各種不透明又極其複雜的微小信號鏈。
難以理解的非人類智能
近期之所以會出現一波民粹政黨與魅力領袖的浪潮,原因之一也就在於我們的資訊網路變得愈來愈高深莫測。民眾如果覺得再也看不懂這世界是怎麼回事,資訊彷彿排山倒海而來、難以消化,令人不知所措,就很容易成為陰謀論的獵物,於是想從某個自己能理解的事物尋求救贖,也就是某個人類。
人類很難有意識的對大量資訊點進行反思,做出權衡。我們常常希望能找出某一個單一理由,就採取特定的行動,而不顧其他考量。這就是所謂的單因謬誤 (fallacy of the single cause)。
人腦與AI演算法的思路不同
我們無法理解演算法是怎樣從資料集裡找出模式,決定如何配分,判斷這項模式是否真正公正可靠?
用演算法審查演算法
雖然一般人確實無法獨立去檢視那些複雜的演算法,但專家團隊在 AI幫手的協助下,要評估演算法的決策是否公平,結果可能比人類去評估人類決策是否公平,要來的可靠。
但這又會帶出一個問題: 要怎樣才能確定那個要負責審查的演算法,本身沒有毛病?
無論研發了怎樣的新科技,都還是必須維持官僚機構制度,負責審核演算法,決定要不要蓋下那個許可的印章。這些機構制度,將會結合人類與電腦的力量,確保新演算工具安全公正。
社會信用體系急轉直下
為了審查演算法,監管機構除了得加以分析,還得再把各項發明翻譯成人類能聽懂的故事,否則我們有可能永遠不會相信這些監管機構,反而是相信各種陰謀論與魅力領袖。
數位無政府狀態
新的電腦網路對民主制度,還有最後一個威脅: 不是形成數位極權,而是促成數位無政府狀態。
特別要擔心 AI可能造成無政府狀態,是因為 AI除了會讓新的人類群體加入公共辯論,也是史上第一次民主必須應對各種非人類的雜音。
到了 2020年代初,情況繼續惡化。根據一項研究評估所有推文已經有 43.2%由機器人程式產生。在人類想要辯論一些重要問題的時候,如果聽到的聲音有一大部份都是機器人程式生成的,會是個什麼情況?
操弄人心的機器人程式
2023年發表在《科學前沿》期刊的一項研究中,研究者請某些人與 ChatGPT針對疫苗、5G技術、氣候變遷與演化等議題,同時寫出正確或是刻意要造成誤導的短文。接著他們讓 700位受試者閱讀這些短文,請受試者評估短文的可靠性。結果發現,一樣是不實資訊,如果是人類捏造的,我們一看就知道全屬虛假;但如果是 AI捏造的,我們卻很容易誤以為是真實。
如果操弄人心的機器人程式,以及我們無力監督的演算法,開始主導公共對話,民主辯論制度就可能在我們最需要它的時候徹底崩潰。
立法禁止機器人程式假冒人類
法律不但應該禁止深偽特定的真實人物,同時還應該禁止讓非人類行為者,冒充為人。
如果今天要禁止人類使用公共平臺,這會是很敏感的作為,民主制度對於這種審查制度也該格外謹慎。但禁止機器人程式就不會侵犯任何人的權利,機器人程式並沒有言論自由。
民主制度絕對可以對資訊市場加以規範,而且民主制度的存亡也正取決於此。
民主的未來
雖然我們清楚看見民主資訊網路正在崩潰,卻找不出確切的原因這。這件事本身就成了一個時代特徵。資訊網路已經變的如此複雜,而且非常依賴各種不透明的演算法決策、與存在於電腦間的實體,結果就是人類甚至很難回答一個最基本的政治問題: 我們互鬥成這樣,究竟是為什麼?