標籤

2024年11月22日 星期五

哈拉瑞著《連結》筆記 (十二): 存在於電腦間的現實

哈拉瑞著《連結》筆記 (十二): 存在於電腦間的現實

存在於電腦間的現實 (GPT-4o 生成)

第8章 易出錯: 存在於電腦間的現實

永遠不要第一個停止鼓掌
資訊其實常常是被用來創造秩序,而不是找出真理真相。

在量子力學中,僅只是去觀測次原子粒子,就會讓這些粒子的行為產生改變。觀測人類的行為也是如此。我們的觀測工具愈強大,可能造成的影響也愈大。

「按讚」的獨裁
類似的動態,也可能影響二十一世紀的電腦網路,創造出新型的人類、新的反烏托邦。一個典型的例子,就是社群媒體演算法,正讓民眾走向偏激極端。

經過拿數百萬人做實驗,不斷嘗試錯誤,YouTube 演算法發現了臉書演算法也學到的那套模式: 激起人們的憤慨怒火,就能提升參與度,而走中庸節制的路線可不行。

就把過錯推給人性吧
電腦會犯錯,原本不算什麼
但在電腦也成了歷史的行為者時,這些錯誤就可能帶出災難。

科技龍頭絕口不提自己的演算法會非常主動的助長某些人類情緒、又抑制另一些人類的情緒。難道他們真的沒看到那些情形嗎?

一項重要建議: 臉書不可能真的刪除一切有害內容,但至少應該「別再讓有害內容得到不自然的傳播而放大」。

揚惡隱善的新秩序
在歷史上一次又一次看到,如果真的是完全自由的資訊鬥爭,真理真相常常是敗下陣來。想讓天平往有利於真理真相的方向傾斜,網路就必須發展並維持強大的自我修正機制,讓說真話的人得到獎勵。這些自我修正需要付出相當的代價,但是真的想得到真理真相,這會是個必要的投資。

劣幣驅逐良幣
各個社群媒體龍頭所做的,非但不是投資推動鼓勵說真話的自我修正機制,反而是研發出前所未有的錯誤增強機制,鼓勵謊言與虛構。

社群媒體有如魔法
社群媒體平臺肯定能解決的一項問題,就是別再為了追求使用者參與度,而去污染整個資訊圈。
要科技龍頭真的想要設計出更好的演算法,通常都是事在人為。

一致性的問題: 《戰爭論》的啟示
《戰爭論》提出了一套合乎理性的模型來解釋戰爭,至今仍是主流的軍事理論。裡面最重要的一句格言就是: 「戰爭和其他工具就是政策的延續」。

歷史上有許多軍事上的大勝,最後卻導向徹底的政治災難。雖然拿破崙勝仗連連,一度攻下大片領土,卻沒能建立長久的政治成就。拿破崙的征伐四方,只是讓大多數歐洲列強群起聯合反抗,加冕不過十年,拿破崙帝國便轟然倒塌。

打贏戰爭,卻輸了政局
2003 年美國入侵伊拉克,同樣是贏了軍事,但輸了政治。美國在重大戰役攻無不克,長期政治目標卻是一事無成,沒能在伊拉克建立親美政權,也沒能在中東打造出有利美國的地緣政治秩序。


臆想實驗: 迴紋針工廠
人類早在電腦革命之前,就已經遇過一致性問題;現代人想建構資訊帝國時會遇到的困難,與過去想要征服四方時會遇到的困境,並沒有太大不同。

到未來,要讓演算法官僚與自主武器系統,向社會長期目標看齊一致,更是難上加難。

電腦網路的權力可能遠遠高於過去任何人類官僚機構。如果是超智能電腦出現了目標與人類不一致的狀況,就可能導致前所未有的災難。

電腦畢竟不是人腦
讓一致性問題格外緊要的第二個原因是: 由於電腦都是非生物實體,所以它們會採用的策略,很可能是所有人類從未想見,人類自然也就無力預見與阻止。

要擔心電腦一致性問題的第三個原因,在於電腦與人類實在太不相同,所以就算我們不小心給出了與人類利益不一致的目標,電腦也不太會有警覺或要求說明。

隨著我們讓演算法在健康照護、教育、執法和許多其他領域,擁有愈來愈大的權力,一致性問題也會變得愈來愈嚴重。

能為電腦網路設定終極目標?
因為電腦網路可能逃離人類的控制,一旦目標設定錯誤,等到人類發現了,可能為時已晚,人類再也無力回天。

如果我們只有一條黃金守則,就是「所有行動都必須向某項更高的目標看齊,保持一致」,那麼就不會有合乎理性的方式,能用來訂定那個最終極的目標。這樣一來,我們要怎麼可能為電腦網路訂出一個永遠不得忽視、永遠不得違背的終極目標?

康德式納粹
幾千年來哲學家一直想要定義出所謂的終極目標,也就是不需要再看齊某種更高階層的目標,而在哲學上可能的解決方案分為兩大派,以哲學術語來說就是義務論 (deontology) 與效益主義 (utilitarianism,功利主義)。

康德認為,所謂本質良善的規則,就是那些自己會想要推廣到普世的規則。簡單來說,康德就是換了一種說法,來表達一條古老的黃金法則: 「你們願意人怎麼待你們,你們也要怎樣待人。」

義務論的困境
如果我們一心想要追求義務論的那種普世規則,而且不是要套到人身上,而是想套到電腦頭上,義務論帶出的這個問題就會變的格外要命。

效益主義登場
效益主義者,是以行為對痛苦和快樂的影響作為判斷。英國哲學家邊沁認為世上唯一合乎理性的終極目標,就是盡量讓全世界減少痛苦,增加快樂。

效益主義的問題是,人類並不知道該如何計算痛苦: 我們不知道某個事件究竟該值多少的「痛苦點數」或「快樂點數」,所以在複雜的歷史情境中,很難計算某個特定行為,到底是增加或減少了世界整體的痛苦。

唯有在痛苦的天平很明顯倒向某一端的時候,效益主義才能發揮最大的效用。

痛苦該如何計算?
義務論為了回答身份的問題,最後不得不接受效益主義的想法。效益主義也因為無法計算痛苦的點數,最後往往得要採取義務論的立場。

存在於電腦間的現實: 寶可夢
史上的官僚是怎麼設定他們的終極目標? 答案就是靠著各種虛構的神話故事。不論哪些官員、工程師、稅務員、會計師多麼講理性,到頭來還是在服務著這個或那個編造出神話的人。

許多電腦相互連結通訊的時候,就能形成一種存在於電腦間的現實,類似於人類網路所創造的「存在於主體間的現實」。這些存在於電腦間的現實,最終的力量 (與危險性)都可能不亞於人類所創造、存在於人類主體間的神話。

寶可夢就是一種存在於電腦間的實體,雖然是由電腦網路裡的位元所構成,而不是以物質世界的原子形式存在,但這些實體仍然能夠透過各種方式,與物質世界互動,造成各種影響。

電腦間的現實: 谷歌搜尋排序
谷歌演算法決定網站排序的方式是,透過各種參數來給每個網站打分數。這套排序本身就成了電腦間的現實、存在於連結了幾十億臺電腦的網路之中。就像寶可夢一樣,也會外溢影響到物質世界。

愈來愈需要瞭解電腦間的現實
縱觀歷史,政治與經濟都要求我們必須瞭解由其他人類所發明的主體間現實,像是宗教、國家與貨幣。未來想要瞭解世界政治與經濟
就愈來愈需要瞭解電腦間的現實,尤其是由 AI產生的宗教與貨幣、由 AI運作的政黨,甚至是完全融入社會與政治的 AI。

新種姓制度
到了十九世紀,種族主義仍然假裝是一門準確的科學,聲稱都是以客觀的生物學事實來將人分類。這些杜撰而成的類別,並沒有發現和描述出任何關於人類的真理真相,只是硬把一種壓迫性的、神話般的秩序套在人民頭上。

新獵巫運動
所有的社會信用體系與全面監控政體,都會面對類似的問題。它們號稱是要用無所不包的資料與極度精準的數學,來找出所有的罪人、恐怖份子、犯罪人士、反社會分子與不值得信任的民眾,但實際上,它們可能是在運用前所未有的效率,硬是把毫無根據的宗教與意識型態偏見,套在所有人的頭上。

演算法有盲點
許多研究顯示,電腦同樣有根深蒂固的偏見偏誤。雖然電腦並非生物實體,也不具有意識,但電腦確實擁有類似數位心態的東西,甚至也可能出現某種電腦間的神話觀點,所以一樣可以展現種族歧視、厭女、恐同和反猶的傾向。

近朱者赤,近墨者黑
訓練 AI用的資料集,就有點像是人類的童年。人類在童年的經歷、創傷與童話,會陪伴我們走完一生,而 AI也有這樣的童年經驗。演算法甚至也會像人類一樣,互相傳染偏見偏誤。

存在於電腦間的偏誤
電腦認為自己找出了某些關於人類的真理真相,但事實上卻只是把一套秩序硬套在人類身上。社群媒體演算法以為自己發現了人類喜歡感到憤慨,但事實上正是演算法自己讓人產生與接受到更多的憤慨情緒。這種偏誤一方面是由於電腦不懂人類究竟擁有多少能力,另一方面也因為電腦不懂自己影響人類的能力。就算電腦發現幾乎所有人類都有某種行為方式,並不代表人類就必須有這樣的行為,搞不好還正是電腦在鼓勵這種行為,以及懲罰壓抑其他行為。

新神上場?
我們對電腦的理解,其實深受傳統神話的影響。現在的 AI像是猶太與基督神學裡的那位無所不知、人類無法忖度的神。AI或神做的決定,對我們來說似乎都是那麼絕對正確、高深莫測,但這可能會對人類造成一種危險的誘惑。

大規模社會的存在,不可能不靠一些虛構的神話,但這並不代表所有神話的品質沒有高下之別。有些神話為提防各種錯誤或越軌的行為,
坦然承認自己的根源也可能出錯,並提出自我修正機制,允許人類去質疑與改變這套神話。美國憲法正是如此。然而,如果是我們根本無法理解的電腦神話,人類又怎麼去探究與糾正?

需要人類智慧來監控
可能的一種防範方式,就是要訓練電腦網路時時注意自己是否出錯。如同蘇格拉底的教誨
懂得說「我不知道」,正是通往智慧的重要一步。所有演算法都該學習的第一課,正是自己也可能犯錯。那些演算法應該要學會懷疑自己不確定,就要承認不確定,也必須遵守「預防原則」。這是有可能做到的。關於鼓勵AI表達自我懷疑、尋求他人意見、承認自己的錯誤,工程師在這幾個面向都已獲得長足的進展。

人類建立的機構制度,除了要能夠發現各種常見的人性弱點,例如貪婪與仇恨,還得有能力察覺前所未有的錯誤。這項難題無法用技術來解決,它將是一項政治上的挑戰。

沒有留言:

張貼留言