標籤

2020年10月30日 星期五

「數位監理」: 心智操控【劍橋分析技術大公開】讀後 (七)

「數位監理」: 心智操控【劍橋分析技術大公開】讀後 ()


網際網路打破了法律與政府管轄範圍的假設。既無所不在又無處可尋它不需要集中在任何特定的位置某一項行為可以在無數地點同時出現甲地行動的效果可能在乙地。科技界常把自己的平台叫做「數位生態系」,暗示者它是一種環境,承載了我們一部分的生活,它看不見也摸不著,但無所不在的影響,讓我們知道它就在我們身邊。

數位犯罪不會發生在某個地點反而像汙染一樣到處都是資料是完全可取代的無形之物只是呈現資訊的一種方式而已可以同時儲存在世界各地的伺服器中即使你發現某些資料出現在某處,它也不完全屬於那裏。在這種機制下,即使真的發生駭客攻擊、竊取資料、恐嚇威脅、詐欺等情事也很難釐清各方責任【劍橋分析】就是這樣運作的而我們既有的究責系統對此更無能為力

科技業喜歡重複說:「法律跟不上科技發展」。但真要做的話,法律其實是跟得上科技發展的。例如在醫藥、建築、食品、能源等許多高科技領域的法規並沒有跟不上。

我們不應該放任科技公司快速行動打破成規」。沒有理由科技公司不需要經過任何審查就可以推出新的數位系統。我們不應讓科技龍頭隨便進行大規模人體實驗,然後才發現問題大得管不住。

規模是一個嚴重到讓人刻意視而不見的問題當矽谷公司說它們的平台太大也就是默認它們造出來的東西過大不能讓它們自己管理。但這種發言同時也是在暗示它們覺得從中獲利,比阻止系統傷害更重要。我們應問,如果這問題大到你們無法即時解決,為什麼社會還要讓你們在充分了解產品的副作用之前,繼續發布未經檢驗的產品呢?

我們必須制定規則,在網際網路溝通中增加一些阻礙,以保護新科技與新網路生態系統的安全。我們須要把強大的科技力量引導到使人類過得更好,建設性的事情上。讓網路生態系更安全,可能有用的第一步:

科技公司不能用使用者條款」來推卸責任

當數位世界與物理世界逐漸融合某些網際網路的架構對我們生活的影響就越來越深。隱私是一種基本人權但人們往往一看到繁複的「使用者條款」就直接按下「同意」放棄了這項權利其實是「不知情就同意」 (consent-washing) 。在現實中我們不會讓人「同意」走進那些電線故障或沒有逃生口的建築物也不會讓設計出危樓的建築師在房子出事時靠著牆上貼著的「使用者條款」來推卸責任為什麼要允許程式設計師與軟體架構師做這種事?

加拿大與歐洲主打「用設計保障隱私」思維,依此拓展打造出整個網際網路的建築規範。除了保障隱私外,還得保障每一個使用者的完整性與能動性,這就是「用設計保障能動性」原則: 網際網路必須設法讓使用者作出更多選擇而且必須禁用目前的黑暗式設計;不可以迷惑、欺騙、操弄使用者去同意某項功能或做出某類行為。如果某項設計會長期造成不成比例的負面影響,例如讓人上癮或造成心理問題,平台就不得使用這項設計。

程式設計師需要道德規範法律制裁

社會所以特別尊重某些職業,如醫生、律師、護理師、教師、建築師、大部分是因為這些職業要求他們遵守道德規範以及與安全有關的法律。因此許多國家都會設立法定監理機構,強制要求這些職業遵守道德規範。

如今我們的生活已遍佈各種軟體、人工智慧、數位生態系;但目前打造日常生活家電與程式的人,卻不受任何法規或強制性規範的約束。有問題與危險的數位平台都是人類寫出來的但產品出問題時科技公司的程式設計師與資料科學家卻不需要承擔任何代價。如此即使有監理機構也是事倍功半因此我們必須要程式設計師為自己造出的東西負責。有了規範設計師必須在公開發行產品或功能之前先思考可能造成哪些傷害成為防止科技濫用的最佳防線。

網路龍頭的監理必須比照一般公用事業

公用事業經營如能源道路等基礎建設,往往是自然獨占,以增加效率,但供應商的權力也可能暴增,消費者別無選擇而被綁架。

網際網路有很多這種公司,谷歌的搜尋引擎市占率超過90%臉書在成年人使用的社群媒體市占率超過70%網際網路巨頭架構和實體的公共設施一樣已變成日常生活的一部分一旦消失商業與社會往往就無法正常運作例如目前許多公司都必須用谷歌的搜索引擎來找員工。

網際網路上的公共設施」是指那些因為規模大到在網際網路變成龍頭而影響到公共利益的服務程式或平台。在監理時必須考慮它們在商業與社會中的特殊地位要求這些機構以更高標準照顧使用者用法定義務 (statuary duty) 來規範並根據其年收益來調整罰款額度以防止其如現在這樣繼續無視法規。

架設新的數位監理機構

目前「網際網路上的公共設施」都能夠不受控制的影響我們的公眾討論社會凝聚力心理健康,必需有機制讓它們對大眾負責。像 FB這樣的平台都會強調自己提供的是「免費」服務,但者種論點,預設了使用者為了使用該平台而交出個人資料的行為不算是把一種有價值的東西去換另一種有價值的東西,這顯然違反事實。應架設新的數位監理機構,擁有法定的制裁權力。這種機構必須要聘雇懂技術的權利保護官,代表人民主動檢查數位平台。同時用市場機制來進一步保護公眾的權益。例如要求這些「網際網路上的公共設施」為濫用資料造成的損害投保讓它們在財務壓力下更用心守護資料

「隱私與極權」: 心智操控【劍橋分析技術大公開】讀後 (六)

 「隱私與極權」: 心智操控【劍橋分析技術大公開】讀後 ()


我們可能正在打造一個強迫記下所有事情的社會
忽略了忘記放下隱私的價值。人類需要隱密的避難所和自由的空間才能成長需要實驗、嘗試、擁有秘密、打破禁忌、打破承諾,需要在不影響公領域下思考自己未來的人生,然後決定改變世界。如果有人監視我們的選擇、篩選我們的選項,我們就失去了自由。如果過去的形象、曾經以為的樣貌、表現給人看的樣貌可以束縛我們的未來,我們就無法成長,給我們貼上標籤,我們就會被鎖在自己的過往之中。隱私是一種權力的本質隱私不是隱瞞的工具,而是成長、行動、為自己負責的先決條件

FB 自稱為使用者的社群或者監理用的的平台,但他提供的不是服務,而如一棟房子。房子並非服務,而是整體架構與基礎建設這個架構正在塑造你對世界的體驗科技平台上市前,不像房子要通國安全測試平台甚至可以用黑暗模式設計刻意設計得讓使用者持續使用或者釋出更多個人資訊

稱整體架構為服務,就是試圖把使用的責任推卸到「同意使用」消費者身上但其他行業沒有以這種方式給消費者下套航空業、旅館、自來水公司從不要求顧客「同意」飛機的設計逃生門出口的數量與飲用水的純度

這時 FB 或會說不爽不要用」。問題是網路世界的某些主流產品根本沒有替代品。如不使用你就從當代社會中消失。找工作、搜尋資料、與別人交流就會出問題這些公司拿消費者選擇當擋箭牌,但之前它們則早就盡其所能成為大部分人生活中不可或缺的一部分

FB 英文版協議長達12,000塞滿晦澀難懂的法律術語,然後讓你按下同意,這不是甚麼使用者同意,而是「不知情就同意,根本是在偷換概念。而且沒有人會因此離開平台人們根本毫無選擇只能同意。

FB 封殺人的方法不只停用個人帳號,還連帶刪除了在 FB與 Instagram上所有資訊,讓人變成被流放的影子。古今中外的當權者,都很愛利用社會記憶與集體遺忘粉粹異己,用竄改歷史的方式來塑造當下的現實。在當代的科技封建體制中、執行長就是暴君

威權思想的哲學基礎就是在社會中製造出一些完全確定的東西而經由竄改自由的意義就是在用「不受某些壞事影響的自由」(freedom from) 來侵蝕「自己選擇要做甚麼的自由(freedom to)。網際網路在初期似乎成功的威脅了專制政權但社群媒體出現後我們卻看到了一個可以監控人民,可以控管資訊,一個符合威權體制的架構。

「資訊戰爭」: 心智操控【劍橋分析技術大公開】讀後 (五)

資訊戰爭: 心智操控【劍橋分析技術大公開】讀後 ()


數以萬計的美國人都把臉書的隱形框架當成他們分享照片
追蹤名人的安全場所FB 讓他們聯繫朋友用遊戲與應用程式打發時間。宣傳自己的使命是讓人們彼此認識彼此相連;但 FB的社群實際上卻讓人只跟自己類似的人聚成小圈圈。這個平台的演算法觀察使用者的行為,分析使用者的發文,研究使用者的互動,把「類似受眾」(Lookalike) 分在一起。

美國人很快就適應 FB種種作為,而這些生活中無所不在的東西,其實都是慢慢改變的,很難確切知道變化規模,但影響可以大到衝擊整個國家。20183月,聯合國確定 FB 是緬甸清洗羅興雅人的「關鍵因子」。

FB 強化了認知隔離現代的多元民主仰賴彼此之間的連帶感源自共享經驗美國民權運動成功打破隔離,但 FB用隔離政策來打造網路社交孤立會讓人彼此懷疑共享觀點的消亡,會讓我們視彼此為他者的第一步

網路虛擬世界比大多數人以為的更真實。人們每天平均看52次手機跟手機共枕每天醒來第一個與睡前最後一個看的是螢幕在辦公室、課堂、公車上看的也常是手機。而在螢幕上看到全是仇恨,引發暴力的火種時,FB 會假裝無辜,發出槍不會殺人,是人殺人類似的論調

二十一世紀主流戰爭是資訊戰。戰爭的形式一直演化資訊戰也是這樣那些發揮遠見用社群媒體打資訊戰的人獲得豐碩戰果。俄羅斯在短短5年之內,打造二十一世紀第一件新型摧毀性武器。這種戰法所以可行,是知道 FB決不會用不美國」的方法來箝制使用者資訊戰的目的是要我們彼此憎恨全方位撕裂社會

我們每個人都容易被操弄因為我們每個人都根據手邊的資訊來判斷很多人都不知道其實演算法一直都在控制我們看到的動態消息,只會讓我們看到想看,而非該看,的消息。此外,如今大部分值得信賴的新聞都來自付費媒體,而假新聞一直是免費的,資訊市場正一點一滴地讓真相成為奢侈品。

新一波的監控資本主義」中。關鍵原物料是待價而沽的注意力與行為,促使平台去維持資訊不對稱,盡量了解使用者的一切,並盡量讓使用者對平台一無所知,而這種環境正如【劍橋分析】所說,是宣傳戰的完美舞台。

如今那些爭奪我們注意力的演算法不僅能夠改變文化還能重新定義存在世界的感覺那些以憤怒驅動政治烙入互戰的文化自拍造成的虛榮心科技上癮以及各種侵蝕心理健康的現象都源於演算法所強化的線上互動」。資訊科技公司研究「使用者體驗遊戲化成長駭客互動想要打造一個為了利用人們認知缺陷的網路資訊結構,過濾、限縮、窄化選擇。最後的結果就是從內部顛覆民主。

2020年10月27日 星期二

「黑暗三元素」: 心智操控【劍橋分析技術大公開】讀後 (四)

「黑暗三元素」: 心智操控【劍橋分析技術大公開】讀後 ()


20148【劍橋分析】已蒐集了超過8,700萬個 FB 完整帳號每個人都對這種資料虎視眈眈

班農是野心勃勃且極其老練的文化鬥士【劍橋分析】研究發現白人直男主觀上覺得思想受到壓迫,想要逆轉時間,讓美國再次偉大。班農知道羞辱會給人最強大力量,迫不急待要找出方法充分利用這種心理狀態。

這些人不斷用笑話與迷因來嘲笑自己的處境,與極端主義聖戰軍一樣,訴諸一種天真的浪漫情懷,鼓吹掙脫社會枷鎖,同時也不可思議的欣賞社會中的「贏家」,用扭曲的世界觀去期待如川普這些壓迫者去帶領他們改變世界,用心中炙熱的怒火將社會燒為灰燼。

世界上有一小撮人具備「黑暗三元素」之任一特質自戀 (極端的自我中心)馬基維利主義 (好弄權術為了利己無情操弄他人)病態人格 (缺乏同理心)。這些人難以融入社會比其他人更容易做出反社會行為也最容易犯罪。【劍橋分析】發現,既神經質又具備「黑暗三元素」的人,比別人更容易在憤怒下衝動,也更容易陷入陰謀論,是最佳煽動對象。

Facebook 演算法注意到你後會推同樣主題的東西給你越來越吸引同一群人這都是為了增加你的互動度。互動度是 FB 唯一在乎的東西。你盯著該頁面的時間越長就越適合下廣告。這就是矽谷「使用者互動」得黑暗面。社群媒體為了提高互動,往往會劫持我們的心理機制,事實上互動度最高的項目,也通常都是恐怖或令人憤怒的。演化讓我們過度注意威脅。只要你是人類,就無法忽略血腥暴力的影片。

2014年夏天,【劍橋分析】開始在 FB 等社群媒體上製造以假亂真的論壇、群組、新聞假界面在美國打造了許多右派粉絲頁。利用 FB 演算法的推薦機制使用者一但加入這些假群組【劍橋分析】就在群組裡發布種影片或文章,煽動它們怒火,然後實驗資訊要怎麼寫,才能讓這些使用者互動更熱烈。

 【劍橋分析】只須操弄一小撮人假敘事自己會傳播出去只要聚集夠多成員公司就會舉辦線下活動出席的人以為自己處身巨大的浪潮當中進一步餵養彼此的偏執與陰謀恐懼有時甚至布置暗樁。總之讓「非我即敵的怒火越燒越大這時敘事本身是真是假已經不重要只要感覺真實就好下一步找出最容易變得乖僻或偏執的人其次是最容易聽信謠言的人,組成遍及各地的神經質陰謀論極右派公民運動。

內部測試也發現【劍橋分析】推出的數位廣告與社群廣告可以有效加強線上互動度估計結果顯示前兩次都沒有投票的選民點了公司放出的訊息之後只要有25%去投票共和黨在幾個關鍵州的得票率就會增加1%如果選情膠著很多時候就決定勝負