雷茲加爾·阿克拉維
Rezgar Akrawi 是一位左翼研究者,專注於科技與左翼議題,專注於系統開發與電子治理領域。
介绍
人工智慧是現代數位革命中最顯著的創新之一。它為提升生產力、推動科學與公共服務,並有助於解決人類面臨的許多挑戰,提供了巨大的可能性。它在各領域帶來了根本性的變革,使其成為現代社會發展的基石。
人工智慧是資訊科技科學的一個先進分支,旨在開發能透過高效能運算與智慧軟體模擬人類智慧的系統。它依賴先進的演算法、機器學習和深度學習技術,來分析資料、辨識模式,並根據輸入資料和參數獨立或半獨立地做出決策。
人工智慧同時處理並回收用戶產生的大量資料,賦予其更強的適應與自我發展能力。這項技術目前廣泛應用於醫療與醫療保健等多個領域,有助於疾病診斷與醫療數據分析,透過互動學習系統的教育,以及產業、經濟、媒體、運輸、物流,甚至安全與軍事領域,包括監控、意識形態與政治控制,以及武器開發。
在討論人工智慧類型時,我們可以根據比較的性質區分不同的發展層次。
與人類智慧相比,現今最常見的類型是狹義人工智慧,用於特定任務,如即時翻譯、影像辨識、語音助理操作、文法修正、文字生成等。這種類型依賴特定資料,並在限定範圍內運作,無法超越範圍。
另一方面,通用人工智慧則是一個更進階的概念,旨在創造能夠像人腦一樣,跨領域思考與解決問題的系統。然而,超智能 AI 是理論上的未來層級,預計在分析、創造力與決策能力上超越人類。但目前,它仍屬於科幻與理論研究領域,或尚未公開宣布,這與許多通常秘密開發並用於軍事和安全目的的技術發展相同,直到公開。
歷史顯示,網際網路及許多先進技術直到多年後才在封閉的軍事、情報和工業環境中被公開。
這項技術並非孤立運作,而是受到開發企業與政府取向的影響,這引發了關於其真實本質及受益者的根本問題。
因此,這項技術並非以中立的方式發展,而是反映了產生它的系統的階級結構。現今發展的人工智慧並非獨立或中立的實體,而是直接受資本主義勢力主導,這些勢力以符合其經濟、政治、社會及意識形態利益的方式引導人工智慧。
正如卡爾·馬克思和弗里德里希·恩格斯在《共產黨宣言》中指出的:
「資產階級在人與人之間留下的共同點,除了赤裸裸的自利、冷酷無情的『現金支付』......它將個人尊嚴變成單純的交換價值,並將一切,包括知識,都轉化為僅僅是利潤的工具。」
這正好適用於人工智慧。儘管其角色與重要性極高,如今卻被商品化,成為最大化利潤和加強階級控制的工具。人工智慧的當前發展不能僅被視為技術進步,它是階級支配體系的一部分,透過這種系統,大型企業與資本主義國家試圖增加利潤、集中財富並再生產現有的生產關係。
驅動這些系統的演算法在意識形態上被導向服務於設計者。它們被用來最大化生產力、強化壟斷企業主導地位,並鞏固資本主義價值觀。因此,這些技術成為剝削勞動力、延續社會與經濟不平等的新工具,而非解放人類脫離剝削條件的手段。
人工智慧已成為資本手中的核心武器。它被用來減少對人力的需求,加劇失業問題,或將體力與知識勞動者推向其他部門,並加深經濟與社會差距。
這些技術的壟斷賦予大型企業前所未有的權力,掌控市場、重塑輿論與意識,並對個人與社會實施全面數位監控。這鞏固了大眾大多被當作數據和廉價勞動力剝削或被自動化邊緣化的系統。
如果資本主義體系繼續主導人工智慧,結果可能是一個深度分化且不平等的社會,資本主義科技菁英掌握近乎絕對的權力,而手工與知識工作者則被推向更邊緣化與排斥。
資本主義的人工智慧願景
一. 資本主義下用於最大化利潤與利用資料與知識的工具
以犧牲社會正義與人權為代價追求利潤最大化
在現行資本主義體制下,科技的使用,包括人工智慧,都是為了最大化利潤。這些技術被用作提升生產力與降低成本的關鍵工具。然而,這往往是以人工和智力勞動者的代價,這些勞動者被演算法和自動化系統取代,導致大規模裁員和失業率上升,或被迫在不穩定條件下轉向其他產業。
最新估計顯示,人工智慧未來幾年可能導致大規模失業,尤其是在依賴日常自動化任務的產業。例如,2023年,全球最大科技公司之一的IBM宣布將停止約30%的行政職位(如人力資源)的招聘,準備在未來五年內以人工智慧應用取代。這意味著數千個工作將被永久淘汰,因為公司相信過去由人類執行的例行任務,現在能由機器更有效率且更具利潤地管理。
2024年初,專注於雲端儲存服務的Dropbox裁員約16%,宣布此舉是將人工智慧視為重點投資領域的「重組」計畫的一部分。管理層解釋說,許多過去由人類完成的工作現在可自動化,因此「不再需要」留住這些員工。
這兩個例子清楚反映人工智慧對勞動市場的影響,以及體力與智力勞動者失業風險的增加,尤其是在缺乏或薄弱的保護性政策保障其經濟與社會權利時。這種脆弱性的程度會因各國階級權力結構、工人權益發展程度,以及工會和左翼的角色與力量而有所不同。
同時,自動化帶來的生產力提升被引導到大型企業的利潤增長,而非提升薪資或縮短工時。那些保住工作的人常常在不穩定的環境中工作,大多數公司執行嚴格政策以提升生產力,利用科技對勞動力施加額外壓力。這種以利潤為導向的焦點加劇了階級與經濟不平等,讓絕大多數社會成員承擔科技轉型的重擔,而資本主義菁英則壟斷了利益與利潤。
數位資本主義下的資料利用
除了傳統職場中對體力與智力勞動者的剝削外,數位資本主義透過科技與人工智慧,擴大了剝削範圍,涵蓋個人資料、使用者行為與偏好。
這些數據已成為資本主義菁英累積利潤的商品,卻未直接向產生數據的用戶提供報酬。這些數據被用來塑造政治與經濟政策、引導消費,並確保資本主義霸權的再生產。
例如,2018 年劍橋分析醜聞揭露數千萬 Facebook 用戶的資料被利用並出售,未經他們知情,透過基於行為分析的政治廣告來影響美國選舉。
像 Google 和 Amazon 這樣的公司,每年透過依賴用戶免費產生的數據分析,透過定向廣告創造數百億美元的收入。僅在2021年,Facebook的數位廣告收入就達到1170億美元,且用戶未參與其中任何實質收益。
這種剝削模式代表一種間接的無償勞動形式,個人無意中產生龐大的經濟價值,卻被壟斷企業奪取。這些企業不僅利用數據,還主導數位基礎設施本身,創造出一種全新的數位封建制度。正如中世紀封建領主壟斷土地,今日的科技巨頭壟斷數位系統,強加條件於使用者,剝奪他們對數位生產工具的真正控制權。
在工業經濟中,剝削是透過未能反映勞動真實價值的工資來實現。在數位經濟中,人類行為與數據已成為新的價值來源。每一次點擊、搜尋和互動都成為數位資本主義累積的原始素材,卻沒有任何法律或合約上的認可。
數位剝削不再侷限於低薪體力勞動,現在也包括使用者本身,他們已成為隱形的數位勞動者。
數位資本主義將這種剝削隱藏在「免費存取」的說辭背後,製造出用戶免費獲得有用服務的錯覺,實際上他們的資料卻被提取並貨幣化以獲取龐大利潤。
像 TikTok 和 Instagram 這類應用程式鼓勵用戶花更多時間與內容互動,同時收集並銷售資料給廣告商,卻不讓用戶分得任何利潤。同樣的情況也適用於像AVG這類所謂的「免費保護」計畫,他們以「提升服務與防毒」為名收集敏感資訊,之後再賣給行銷和廣告公司。
資料分析不僅用於廣告,也被用來訓練人工智慧系統、開發新應用以進一步鞏固企業對知識的主導地位,並影響經濟、社會關係等,而使用者完全無法控制自己的資料,也無法主張他們所創造的價值與利潤。
更令人擔憂的是,這種模式抹去了工作時間與休閒時間之間的界線。每一刻在線上時間都成為持續的數據生產行為,即使在娛樂、社交互動和文化交流中也是如此。網際網路本身已成為一個全天候運作的數位工廠,運作於資本主義邏輯與數位封建主義下,科技公司不再只是提供服務,而是制定數位空間的規則,強迫用戶在其壟斷系統內工作,無法控制數位生產工具,也無法意識到自己所遭受的剝削。
數位剩餘價值與傳統剩餘價值
剩餘價值是資本主義剝削的核心,是工人所創造的價值與他們所獲得工資之間的差額。但這個概念並非固定不變;它會根據當時的生產方式而改變。如今,我們可以區分兩大類型:傳統剩餘價值與數位剩餘價值,兩者在底層的生產與剝削關係上有所不同。
第一:傳統剩餘價值
在傳統工業模式中,剩餘價值是從工廠、農場、辦公室和服務鏈等生產現場的體力和智力勞動者中提取的。這些工人以直接勞動合約形式工作,薪資遠低於其實際產出的價值。資本擁有生產資料,並運用勞動力來透過控制工作時間來獲取利潤。
例如,在蘋果、三星等大型全球企業經營的智慧裝置工廠中,東南亞數十萬勞工長時間工作,薪資低廉,僅能支付基本生活成本,而這些公司卻賺取龐大利潤。2023年,蘋果的利潤超過1000億美元,其中大部分來自於在嚴苛勞動條件和剝削性工作環境中銷售產品。
第二:數位剩餘價值
在數位模型中,剩餘價值是以更隱晦且複雜的方式被提取。此模式不僅依賴有償勞動,更依賴使用者在數位空間中的日常活動。
每一次點擊、搜尋、按讚、分享、語音指令或應用程式使用,都會產生數據,這些數據被用來透過廣告、演算法訓練、產品開發和行為分析創造龐大利潤。這些數據也被用於政治、經濟、社會、智識,甚至軍事和安全領域。
這裡沒有勞動契約、沒有工資,甚至沒有對使用者生產角色的認可。數位資本主義不是購買勞動時間,而是從日常生活本身中榨取價值,並將這種剝削包裝在「免費服務」的假象之下。即使部分服務以免費或象徵性價格提供,功能通常有限,主要作為蒐集更多用戶資料以最大化利潤與強化控制的工具。
這種數位剩餘價值提取的現實例子包括社群媒體平台,使用者製作免費內容,吸引大量互動,然後銷售給廣告商,為平台帶來龐大利潤,而大多數內容創作者則獲得極少甚至沒有分成。這同樣適用於像 Google 地圖這類服務,它們依賴用戶產生的位置數據來改進服務並銷售給商業客戶,且同樣不支付提供資料者的報酬。
像 Amazon Alexa 和 Apple Siri 這類語音助理會錄製並分析語音指令,以改進 AI 系統或將資料賣給廣告商和行銷人員,而使用者卻完全沒有意識到自己正直接參與數位剩餘價值的產生。
第三:兩個模型的分析比較
傳統剩餘價值 方面 數位剩餘價值
體力勞動與智力勞動 誰創造了價值? 使用者活動與互動(甚至非正式工作)
材質,可見 流程的可見性 無形、隱藏;不可見
合約制、有薪工資、雇主擁有的工具 生產性質 非合約性、自願性,基於行為、數據與互動
具體可感,即使有限或不公 賠償金 經常缺席
工作時間與休閒時間的明確區分 工作與生活的分離 模糊界線:「生命即勞動」模式
工資與生產力差距下的剝削 萃取機制 數據驅動的變現與演算法優化
第四:結論
數位資本主義並未消除傳統的剩餘價值;相反地,它加入了一種新的、更隱蔽的形式,從用戶每日的數位互動中提取剩餘,而非從被認可的體力或智力勞動中提取。生活時間與休閒空間被轉化為無形勞動,從中榨取價值,卻沒有工資、合約或數位生產手段的控制。
因此,數位剩餘價值的生產涵蓋了所有人,不僅是特定類別的體力與智力勞動者,甚至包括那些無意中助長龐大生產系統、為壟斷企業累積利潤的「普通用戶」。
如此一來,日常生活與人類行為本身,而非僅僅是工資勞動,成為資本積累的主要來源,這是最先進的剝削形式。
知識經濟
在資本主義體制下,工業、農業和商業生產不再是經濟價值的唯一來源,知識已成為資本主義的新燃料。
知識經濟本應是解放人類和改善生活的工具,卻被重組成一種新的壟斷機制,用來加深階級與數位不平等,並加強大型企業和國家對數位生產工具的控制,而擁有技術的少數人掌控了多數人的命運。
資本主義菁英壟斷了大多數知識工具,從專利、先進研究、演算法、軟體、作業系統到主要數位平台,幾乎完全依賴他們的數位產品,而非將這些技術轉化為服務所有人的集體資源。
即使是本應是免費知識生產空間的學術與科學機構,也淪為市場邏輯的制約,科學研究被出售給主要機構,公眾若不付費則被拒絕接觸,強化了科學與知識的商品化,而非視為共享的人權。
資本主義不僅試圖壟斷知識,還透過對教育課程和數位內容的控制,系統性地製造無知,引導大眾走向智力扁平化。
網際網路本可成為傳播批判意識的革命性工具,卻幾乎完全由主要國家和壟斷企業掌控,依據其經濟、政治與意識形態利益,控制資訊與知識的各種流通。
二. 人工智慧作為支配與控制勞動的工具
資本主義體系不僅利用人工智慧提升生產力與利潤,還將其作為鞏固階級控制的工具,並使體力與知識勞動者接受更嚴格的監控與規範機制。職場中使用人工智慧不僅是為了提升績效,也旨在加劇剝削並以犧牲勞工自由與權利為代價牟利。
隨著智慧演算法的發展,企業現在可以透過生產力追蹤系統、數據分析或績效速度與效率指標,追蹤員工的每一個動作。這些工具常被用來施壓工人、縮短休息時間,並強加令人疲憊的工作節奏,將他們變成無休止資本主義機器中的齒輪。
這種新型監控模式可能造成更嚴苛的工作環境,使工人淪為人工智慧方程式中的變數,對工作條件幾乎無法控制。
此外,演算法也被應用於聘用與解雇流程。大數據被分析以判斷誰值得被聘用或留任,誰可以被取代。這導致工作動態不穩定,許多勞工被邊緣化,並因僵化的量化標準而輕易被拋棄,完全不顧及人文或社會層面。
例如,像LinkedIn這樣的大型招聘公司會使用AI軟體來分析履歷並自動篩選候選人,這導致對來自較弱勢背景者的間接歧視。演算法傾向偏好符合資本主義勞動市場模式的候選人,卻忽略那些擁有非傳統技能或非主流經驗的人。
這種轉變不僅透過將勞工推向其他產業而提高失業率與工作不安全感,也強化了「可替代勞動」的模式,即一旦被認為效率低於數位或自動化替代方案,便輕易被淘汰,使勞動市場更加脆弱,剝削也更加深化。
例如,在亞馬遜倉庫中,人工智慧系統被用來監控員工流動、追蹤生產力,並判斷誰達到目標、誰落後。許多人被解雇是基於不人道的標準,忽視了他們的健康或社會狀況。
這同樣適用於像 Uber、Deliveroo 和 Uber Eats 這類平台公司,司機的整個工作生活都由 AI 演算法主導,這些演算法會分配訂單、安排工時、決定應用程式上的能見度,甚至決定誰能上班、誰的帳號被凍結,或根據顧客評分、行程次數或延誤來減少誰的收入。 沒有人為監督或考慮個人情況。
在這種模式下,演算法和人工智慧成為真正的管理者、法官和執行者,而工人則在極度脆弱且剝削的數位勞動市場中,失去法律保護或工會權利。這導致多個國家爆發罷工與抗議,要求將平台工人視為「員工」而非「獨立承包人」,並保障基本權利,如最低工資、健康保險及組織權利。
三. 塑造意識以促進新自由主義資本主義文化
除了利用人工智慧最大化利潤與強化社會控制外,這項技術也被系統性地用來塑造並逐步引導個人意識,目標是推廣資本主義文化與價值,特別是對西方文明,特別是美國資本主義價值的讚美。
透過分析使用者資料與行為,演算法被用來控制在社群媒體、搜尋引擎等數位平台上顯示的內容。這些系統旨在向個人提供與支持資本主義世界觀、政策與意識形態價值觀相符的內容。
例如,在大多數數位平台上,廣告和促銷內容會鼓勵用戶購買更多產品,即使他們其實沒有真正需求。資本主義價值觀被推崇,例如私有財產的永恆神聖、階級差距、個人成功、財富、消費主義與奢華生活方式,作為「成功」生活的標準。另一個例子是 Google 的搜尋演算法,它根據市場邏輯和付費廣告來排名結果,而非基於社會、智力或科學相關性。
搜尋「成功」、「自我發展」甚至「幸福」等詞彙時,熱門結果多與自助公司、付費課程及聚焦個人主義與利潤的消費主義建議相連結,而嚴肅的學術分析與進步左派思想則因直接或間接審查而被淡化甚至隱藏。
這逐漸且微妙地引導集體意識接受這些價值為自然且不可避免的存在。這個過程歷時很長,且以極為柔和、難以察覺的方式展開,以致大多數使用者,包括左派和進步思想家,都認為這些工具完全中立。這項政策對未來世代構成重大威脅,因為人工智慧已成為日常生活不可或缺的一部分。這些精煉的方法與政策進一步鞏固資本主義霸權,並提升群眾對現有體制的忠誠與服從。
四. 過度依賴對人工智慧的影響
人類技能的崩潰與數位疏離與疏離的加深
除了人工智慧在重塑大眾意識中的角色外,還有另一個面向在國際法下大多未被研究與規範,尤其是在主要強權與壟斷資本主義企業爭奪AI市場的瘋狂競賽中。此面向涉及過度依賴 AI 對人類智力與創造力的負面影響。科技發展如今大多朝向支配、獲利與技術霸權競爭,卻未考慮這些變化對人類可能產生的深遠影響。
人工智慧被推廣為讓生活更輕鬆、提升生產力的工具。然而,現實顯示,對這些技術的不加批判依賴可能導致意識淺化,並削弱基本人類技能。隨著時間推移,尤其是年輕世代,可能因過度依賴代為執行這些任務的智慧系統,而降低批判性思考、計算、寫作甚至基本溝通的能力。
在此脈絡下,人類異化以新的數位形式重現,個體與其智力與創造力分離,被困於剝奪自主自主權的科技系統中,就像傳統資本主義下工業工人與產品疏離一樣。
人類可能逐漸淪為從屬於那些引導他們日常互動、決定閱讀與觀看內容,甚至塑造思維的演算法。這可能導致世代缺乏獨立面對現實的能力,人工智慧成為個人與世界之間的主要介面,強化他們對資本控制的系統、公司與國家的依賴。
這種數位疏離感不止於生產層面;它延伸到更深層次,即與自我、意識及社會關係的疏離。個人與文化身份淪為為服務市場的演算法的反映。
這裡的危險不僅在於個人技能的喪失,還延伸到集體意識的重塑,以符合資本主義市場的需求。這削弱了人們組織、抵抗及要求激進變革的能力,逐漸將他們推入孤立的數位泡泡,使人類互動淪為控制資訊流通、重塑社會關係以服務支配的平台。
數位成癮
在此框架下,數位成癮成為人工智慧擴展中最危險的後果之一。加州大學研究人員於2020年進行的一項科學研究發現,過度使用數位平台和社群媒體,由人工智慧演算法驅動,會對大腦造成類似藥物成癮的變化,特別是在負責決策和行為控制的區域。這些演算法是刻意設計來吸引使用者的注意力,並盡可能長時間保持連線。
社群媒體、娛樂應用程式及其他數位系統不僅僅是服務平台,它們是有意識地用來強化行為與認知依賴的工具。龐大的資料集被用來理解並操控使用者的動機,以服務企業與主要國家的經濟利益。
這種數位成癮不僅浪費時間或影響生產力,也透過成癮造成一種新的疏離感,個人逐漸失去在數位框架之外生活的能力。這可能導致注意力下降、解決問題能力下降、記憶力減弱,以及直接人際溝通的衰退。
資本主義以多種方式利用這種成癮,投資於刺激成癮行為的技術,確保使用者持續與數位平台互動。這形成惡性循環,利潤透過讓個人持續處於被動消費狀態來產生,提升企業營收,卻犧牲了心理健康,尤其是在年輕世代中。隨著時間推移,這可能會侵蝕他們獨立思考和集體行動的能力。
一種自願的數位奴役形式
隨著人工智慧從科技工具轉變為重現社會、政治與經濟控制模式的機制,階級主導地位日益加深。若此模式持續,可能導致人道災難,人類逐漸失去面對複雜挑戰的能力,淪為資本主義菁英與大國控制技術的俘虜。
使這種控制更危險的是其自願性質。個人因演算法操控與便利性需求,被捲入這種數位奴役,卻未遭直接強制。他們被賦予控制與選擇的錯覺,而他們的決策卻微妙地朝向符合資本主義利益的預定路徑。
這種臣服並非出於有意識的共識,而是源自日益依賴成為人際關係與獨立認知過程的人工替代品的科技。這導致一種數位疏離狀態,人們認同主導他們的工具,而非抗拒它們。
如果這種動態不受制止,沒有基於進步左派意識的集體抵抗,現有人工智慧可能逐漸從資本主義的工具演變成人類認知的替代品,主宰日常生活並施加一種新的自願數位奴役。
在這種情況下,個體被限制在定義其角色與行為的科技系統中,限制他們獨立決策的能力,並被迫接受這種主導地位為不可避免的現實。
機器叛亂與人工智慧對人類的控制
未來的情境長久以來都想像一個由機器統治的世界,人類失去對自己創造技術的控制,淪為服務於主導勢力體系中的齒輪。這個願景曾是哲學或科幻電影的領域,隨著人工智慧的快速發展以及缺乏有效的國際法律框架來規範與控制,這個願景變得越來越現實。
人工智慧發展中最嚴重且複雜的議題之一,是它可能超越人類智慧,成為一個自主的實體,超越人類控制,甚至主導人類。一旦超越原始程式限制,人工智慧可能成為一個在經濟、政治及日常生活等領域獨立做出關鍵決策的系統,無需人類監督。
在資本主義下,人工智慧被開發為服務於資本積累並強化階級支配,並面臨激烈的市場競爭,使得失去控制不僅可能,而且極有可能且危險,尤其考慮到其發展速度驚人,遠遠超過任何在法律或社會框架內規範或限制的努力。它被設計成一個擁有巨大能力的工具,但沒有任何「籠子」來限制其濫用或失控的成長,否則它可能會變成一股自主力量,對抗社會利益,而非服務於社會利益。
這種情況在電影中並不陌生。許多電影探討過這個概念,例如《魔鬼終結者》,描述機器在獲得自我意識後向人類宣戰;《駭客任務》,描繪人類被人工智慧奴役並用作能源的世界;以及《我,機器人》,探討機器人在獲得獨立理性後反抗人類的故事。人工智慧的「反叛」可能不再是虛構,它可能表現為透過數位系統強加的政策,完全不顧人類需求。我們今天所見的,尚未是機器人對人類的經典統治,但這可能演變成一種基於全面自動化與演算法治理日常生活的新型數位控制模式,將社會轉變為由智慧系統與機器管理與主導的實體。
五. 人工智慧與第三世界
人工智慧的影響不僅限於已開發國家,也延伸至全球南方,在那裡它被視為原材料基地和龐大消費市場,服務全球資本主義。這些技術非但未促進這些國家的獨立發展,反而被引導強化經濟、政治、智識與技術依賴,加深對主導國家與企業的剝削,推動人工智慧發展。
壟斷企業試圖在全球南方剝削數據與人力資源,卻不提供公平的回報。雖然人工智慧被公開宣傳為發展工具,但實際上它被用來提取數據,並將民眾轉化為免費的資訊來源。
大量數據透過數位應用程式、追蹤系統和社群媒體平台被吸收,每一次互動都成為被強權國家和壟斷企業利用的原始素材,對當地居民幾乎沒有社會回報。
由部分國家和大型科技公司主導的「慈善」與「人道」倡議,被用來加深資本主義對全球南方的控制。這些企業努力將網路接取帶到世界每個角落,特別是發展中國家,甚至在提供電力、乾淨水源或基本服務之前就已普及。
其中一個例子是 Meta(前身為 Facebook)與另外六家科技公司合作推出的 Internet.org 專案,口號為「連結未連結者」。在部分國家,它提供有限且精心策劃的網路接入,僅限於贊助公司及其合作夥伴的平台與服務,而非提供免費且開放的網路。他們非但沒有賦權用戶,反而被變成封閉數位環境中的囚禁消費者,互動被持續監控與利用以謀取利益。
這顯示這類計畫的真正目標並非改善生活水準或發展基礎建設,而是促進商業利益、擴大意識形態控制,並將每個人轉化為永久的消費者與數據來源。
這些政策並未彌合數位鴻溝;相反地,他們重現的是數位形式的殖民主義。這些國家完全依賴外國國家和企業提供技術與數位服務,而非建立本地能力以滿足其真實需求。
這鞏固了對專有軟體和外國雲端基礎設施的依賴,尤其是那些擁有長期殖民剝削歷史的西方列強。
在全球科技霸權競賽中,中東及全球南方其他地區的威權政權並未袖手旁觀,尤其是富裕的海灣君主國。這些國家在自身的人工智慧計畫上投入數十億美元,並直接獲得長期視其為推動經濟與地緣政治利益戰略盟友的主要強權與壟斷企業的支持。
雖然這些投資被宣傳為社會的「數位轉型」與「科技現代化」的一部分,實際上卻強化了獨裁統治、擴大監控能力,並加強對其人民的政治、社會與意識形態控制。
這些政權利用人工智慧發展大規模監控系統、分析大數據,並壓制任何異議。臉部辨識、語音分析及行為預測技術被用來識別並中和反對勢力,防止其行動。透過這些系統,威權政府能透過數位管道和公共空間監控與監控公民。
儘管圍繞民主與人權的表面言辭,西方國家與大型企業仍持續支持此類政權,因為它們服務於自身的經濟與政治主導地位。壟斷性科技公司直接參與這種壓制,要麼透過銷售技術本身(類似武器和酷刑裝置),要麼為這些政權依賴的人工智慧系統提供諮詢、技術支援與基礎設施。這些系統在與全球資本主義結盟的威權國家中自由發展與部署,成為再生產與強化專制權力的直接工具。
六. 性別偏見與人工智慧中缺乏完全平等
儘管一般認為 AI 是性別中立的,但仔細觀察會發現,演算法與智慧系統中嵌入的性別偏見清楚顯示大多數 AI 應用如何重現性別歧視與不平等。
這些以男性為中心的語言與不平等的特性,反映了資本主義企業與父權政府所灌輸的文化與社會偏見,這些偏見依語言、各國婦女權利與性別平等程度而異。
人工智慧本質上並非男性化,而是依賴父權資本主義社會的數據。演算法訓練於常反映刻板印象、強化性別不平等的資料集,例如男性主導語言的使用及職場與社會中對性別角色的傳統認知。
例如,卡內基美隆大學2019年的研究發現,Facebook和Google上的職缺廣告中,男性更常看到薪資較高的技術與工程職缺,而非女性。
同樣地,路透社在2018年揭露,亞馬遜基於AI的招聘系統在評估科技職位時,自動偏袒男性候選人而非女性。該演算法的訓練基於反映公司內部結構性偏見,過去男性在技術職位中佔多數。因此,系統會降低包含「女性」一詞或提及女性主義活動的履歷。
此外,像智慧助理這類語音系統通常被設定為女性聲音和服務導向的角色,強化了女性被塑造成「順從者」或「幫手」而非平等伴侶的刻板印象。例如,像蘋果的Siri、亞馬遜的Alexa和Google Assistant這類虛擬助理預設使用女性聲音,並以禮貌、順從的語氣回應批評,強化了將女性與服務與支持聯想在一起的文化規範。
目前,一些中東國家正根據保守的父權宗教價值觀投資數十億美元開發人工智慧專案,進一步將性別偏見深植於這些系統中。例如,一些阿拉伯語音助理是用男性聲音而非女性聲音開發的,以避免某些保守宗教解釋中女性被刻板印象為「順從者」。
這些國家的許多數位系統也限制女性在數位內容中的出現,或反映出淡化女性在社會中角色的傳統觀念。例如,一些威權政府利用人工智慧系統監控社會行為,並強制執行受父權宗教價值觀啟發的道德標準,例如限制未戴面紗女性的影像,或限制她們在搜尋結果和廣告中的曝光度。這種剝削最極端的例子之一,是開發人工智慧系統監控女性服裝,分析影像與影片以判斷是否符合強加的宗教著裝規範。例如在伊朗,已採用數位系統來追蹤女性對強制頭巾法律的遵守情況。
女性在人工智慧設計與開發中的代表性不足、缺乏有效的女性主義與進步參與,以及開發團隊的男性主導性,這些都加劇了問題。根據 AI Now 研究所的報告,Facebook 的 AI 研究人員中女性僅佔 15%,Google 則僅佔 10%,這意味著大多數 AI 技術由男性團隊開發,這在演算法中加深了性別偏見。
在此情境下,科技不僅反映性別偏見,還會重生並放大這些偏見,阻礙平等的進展,並加深性別鴻溝,而非未消除。這些系統強化了刻板印象,並延續對女性的歧視。這不僅僅是技術層面的問題,更是更深層社會危機的反映,進一步強化了數位領域中不平等與歧視的模式。
七. 人工智慧作為政治控制、鎮壓與人權侵犯的工具
數位監控與控制
數位企業與主要強權合作,透過智慧裝置及各種通訊管道監控個人行動。幾乎所有數位活動,包括所謂的私人會議,都受到持續追蹤與分析的影響。事實上,沒有任何數位空間是完全安全的;資料系統性地收集,並用來根據個人和團體的行為、智力傾向及政治取向來評估與分類。
此外,數位監控已成為追蹤用戶意識形態與政治傾向的核心工具,使企業與政府能透過有組織的假訊息運動或數位制裁,追蹤並鎖定用戶,限制並減少其在公眾輿論中的影響力。
這些策略被系統性且秘密地應用於工會、左翼組織以及獨立的人權和媒體機構。
這些團體面臨越來越多的限制,透過微妙且難以察覺的方式,限制其思想在公共數位領域的傳播。
演算法正是用來限制左派和進步政治內容的觸及範圍,不是直接刪除,而是降低其能見度。這使得數位壓制變得更加複雜、危險且隱形。
對進步內容的低互動看似是觀眾的自然反應,但事實上,這是因為預先設計的演算法限制其觸及範圍。這在行動者中造成錯誤印象,認為他們的理念缺乏興趣或受歡迎,導致他們重新考慮或放棄立場。
數位失敗主義
數位挫敗主義是一種新興且複雜的階級統治工具。演算法和人工智慧被有系統、不易察覺且逐步地使用,以散播加強無助與投降感的內容,尤其是在左派和進步派用戶中。
這種機制放大了社會主義實驗和左翼組織的失敗感,將資本主義描繪成一個永恆且不可戰勝的體系,並強化了變革不可能的觀念。它同時推廣個人主義及市場驅動的解決方案,如消費與自我發展,將個人與任何形式的有組織集體政治行動隔離開來。
此外,左翼組織內部的討論也被轉移到邊緣的內部衝突,這分散了努力並削弱了他們的抵抗能力。大型企業依賴行為分析,針對個人和團體投放內容,助長絕望,並讓他們相信社會主義變革不可能或徒勞。
這些政策並非偶然,而是刻意且科學化的方法,旨在壓制或削弱變革精神,確保資本主義體系不受挑戰且完整。
數位逮捕與暗殺
數位逮捕代表著比單純監控與控制更危險的階段。它不僅限制內容可見度,還包括任意暫停個人或群組帳號,無論是暫時還是永久,這可被視為一種數位暗殺。此行為缺乏透明度、明確標準,或保障用戶權利的本地或國際法律。「違反社區標準」或「助長暴力」等理由常被用來壓制聲音,即使內容記錄了國家或企業所犯下的資本主義罪行,或人權侵害。
一個顯著的例子是針對巴勒斯坦內容的數位壓制,這些內容記錄了以色列對平民的罪行。在最近以色列對加薩的攻擊期間,Facebook、Instagram、Twitter 等平台以「違反社區準則」或「推廣恐怖主義」為藉口,刪除或封鎖數百個記錄佔領罪行的帳號與貼文,儘管這些內容已經過人權組織驗證,卻真實記錄了戰爭罪行。獨立媒體也成為鎖定目標,限制其觸及範圍或完全刪除帳號,明顯試圖壓制揭露巴勒斯坦平民侵害的聲音。
自願自我審查
數位壓制與內容壓制伴隨「自願自我審查」現象,個人甚至團體開始自我審查,調整或淡化政治論述,轉向一般理論議題,避免與資本主義或威權政權直接對抗。
這是因為擔心他們的貼文會被限制,或面臨透過 AI 驅動的數位平台帳號停權而遭到數位逮捕或暗殺。
這種恐懼削弱了言論自由,並在實際限制實施前,成為重塑與規範公共話語的重要因素。它強化了資本主義的意識形態主導,減少數位抵抗的空間,並將網路轉變為一個自我規範、符合統治權力利益的空間。
例如,在多個國家針對資本主義政策與威權政權的大規模抗議中,以及更廣泛程度不同程度的抗議中,許多用戶注意到,包含「總罷工」、「公民抗命」、「革命」或人權侵犯紀錄等詞彙的貼文,獲得的觸及遠不及平常。同時,關於經濟和政治的一般分析文章則沒有受到同樣影響。
因此,許多活動家開始避免使用平台所歸類為「煽動性」的詞彙,導致公共話語軟化,削弱其革命性,削弱社群媒體作為政治動員與群眾組織工具的角色。
八. 人工智慧侵蝕民主
在透過數位化掌控人類心智與意識後,人工智慧從一個利潤最大化的資本主義工具,演變成削弱甚至破壞資產階級民主殘餘的核心工具,而非支持或推動它。
儘管許多國家的民主制度公信力有限,民主受政治金錢、偏頗選舉法及其他因素影響,這點依然成立。
數位化與人工智慧非但未鼓勵知情公眾參與政治生活,反而被用來重塑與操控輿論,以利統治階級利益,影響選舉,縮小自由辯論空間,並引導政治與媒體話語服務於主導資本主義勢力。
階級對人工智慧的控制意味著這項原本被認為支持透明與民主的技術,實際上被用來製造和推廣保護現有資本主義秩序的敘事。
大數據分析與智慧演算法被用來引導政治資訊,以有利資本主義機構、右翼與新法西斯政黨,以及威權政權。這削弱了公眾基於真實批判意識做出政治決策的能力。
在資本主義下,人工智慧並未被用來賦權大眾或提升有意識、透明的決策能力。相反地,它成為扭曲真相、重現宣傳和散播媒體假訊息的工具,這些資訊侵蝕了民主的根基,民主基於透明、資訊取得,以及知識與政治多元主義。針對性內容是基於行為分析而產生的人為輿論,強化階級霸權並加深政治與社會極化。
這不僅誤導選民,還重塑了政治對話本身,剝奪其實質內容,充斥著支持資本主義及其右翼理念的宣傳。
人工智慧的影響力超越了單純的資訊操控,它成為資本主義下再生政治權力的核心機制。透過演算法驅動的競選管理、設計符合資本利益的政治話語,以及透過微目標影響選民選擇,反對聲音被中和,左派進步民主替代方案被削弱。
最近的一個例子是右翼億萬富翁埃隆·馬斯克(Elon Musk)透過其平台「X」(前身為Twitter)介入2025年德國大選,直接支持極右政黨「德國另類選擇」。這是透過推廣 AI 生成的內容來影響輿論,並重現政治極化,支持極右與新納粹勢力。
在這樣的環境下,選舉已不再反映公眾意願,甚至連相對的都不代表。相反地,它們成為主要強權、壟斷勢力與金融菁英之間的衝突場域,這些人利用網路與人工智慧作為政治與意識形態主導的工具。這腐蝕了民主機制與政治多元,要麼削弱進步聲音,要麼推動公眾走向虛假的替代方案,最終重現同一資本主義體系,充其量只是表面上的改變。
九. 資本主義下人工智慧對環境的影響
氣候變遷與環境破壞是資本主義最顯著的結果之一。如今,人工智慧已成為耗盡地球資源並加速生態退化的又一工具。雖然被宣傳為進步的象徵,這項技術卻以符合資本主義利益的方式管理,卻缺乏對環境保護或氣候正義的真正承諾。
例如,報導指出,Google 位於愛荷華州的資料中心每年約消耗 33 億公升水來冷卻伺服器,進一步耗盡了本已面臨淡水短缺問題的地區當地水資源。
人工智慧系統依賴於全球能源消費量最大的大型資料中心。這些中心全天候運作,處理龐大的資料集並訓練演算法,消耗大量電力,其中許多仍來自化石燃料。
根據國際能源署資料,全球資料中心在2022年估計消耗了240至340太瓦時的電力,相當於全球總電力需求的1%至1.3%,相當於像阿根廷這樣的國家的年度能源消耗。儘管部分科技巨頭聲稱投資再生能源,但 AI 系統的無節制擴張導致碳排放遠超過任何部分環境解決方案的效益。
人工智慧硬體的生產也與資本主義對自然資源的剝削息息相關。先進的晶片與處理器需要大量稀有礦物的開採,而這些大多來自全球南方,且工作條件極其嚴苛且不人道。
以剛果民主共和國為例,數以萬計的工人,包括兒童,在沒有安全設備的情況下開採鈷作為鋰電池,暴露於導致嚴重及慢性疾病的有毒重金屬中。同樣地,智利的鋰開採使乾旱地區的地下水位下降了65%,導致農田乾涸,迫使當地社區失去傳統生計。
這些做法不僅破壞當地生態系統,還迫使原住民族流離失所,污染水源和食物供應,並使貧困社區暴露於有毒化學物質和疾病之下,同時資本主義企業卻賺取龐大利潤,卻缺乏真正的問責。
作為資本主義生產-消費循環的一部分,電子設備不斷升級,產生大量電子廢棄物。大部分廢棄物無法安全回收,而是被輸出到發展中國家,累積起來,造成環境災難。例如,迦納已成為全球最大的電子廢棄物傾倒場之一,大量廢棄電子產品被焚燒以提取貴重金屬,釋放有毒氣體,污染空氣、水源和土壤,並加劇勞工及當地居民罹患癌症及其他健康問題。
擴展 AI 基礎設施需要建造更多資料中心與通訊塔,加速森林砍伐、生態系統破壞及生物多樣性流失。全球南方多個國家已清理數千英畝森林以興建科技設施,導致瀕危物種的關鍵棲息地流失。
雖然人工智慧被推廣為打造工業化氣候環境以提升農業與工業生產力的工具,但利用此技術強行改變自然生態系統可能帶來災難性的環境風險。對氣候與地質的人工操控,若不尊重自然平衡,可能導致不可預測的災害,包括加劇的地震與山崩。
現代資本主義虛假聲稱關心環境,與早期的剝削形式並無不同。大多數科技擴張,尤其是人工智慧領域,都是以犧牲自然為代價,以各種方式破壞生態系統,以服務於強大國家和壟斷企業的利益。
十. 人工智慧在戰爭中的應用與致命武器的發展
現代人工智慧技術揭示了這個領域正被引導到增強軍事優勢,而非促進和平與發展。如今,人工智慧已成為全球軍備競賽的核心,用於開發能在無需人類直接干預下執行軍事行動的智慧武器與技術。
這種轉變增加了更具破壞性、非人道衝突的風險,減少了人類在使用致命武力時的判斷需求,使戰爭更快、更複雜且更難以預測。
隨著人類決策在戰鬥情境中被最小化,衝突升級的可能性增加,國際人道法的廣泛違反及平民傷亡增加。殺戮與破壞成為演算法決策,未經人為、倫理或政治審查,也未負責任。
美國、中國、俄羅斯等國已開發出具備自主作戰決策能力的AI無人機。這些系統可根據資料分析被編程攻擊目標,引發對演算法偏差或程式錯誤可能造成災難性錯誤的嚴重擔憂。許多軍火公司現在正投資於以人工智慧為基礎的軍事系統,這些系統被行銷為「未來武器」。
這些技術不僅限於傳統戰場,還延伸至網路戰,利用人工智慧攻擊金融系統、能源網、水源及基本服務等關鍵國家基礎設施。這放大了破壞,加深了全球危機,並加劇了平民的苦難。部分國家及非國家行為者已在網路攻擊中使用人工智慧,例如因AI驅動的電力與水網攻擊導致的廣泛停電事件。
近期最令人震驚的人工智慧驅動戰爭案例之一,是以色列對加薩的最新攻擊。以色列軍方運用先進的人工智慧系統選擇目標並對巴勒斯坦人執行空襲。調查報告揭露使用名為「Lavender」的先進人工智慧工具,能高速分析情報數據,並透過演算法優先轟炸目標,完全不顧人道考量。
在這場殘酷攻擊中,大規模轟炸住宅建築和民用基礎設施,造成數萬名巴勒斯坦人死亡,主要是婦女和兒童,藉口是攻擊「軍事目標」。人權組織證實,這些攻擊是系統性大規模毀滅與利用先進科技進行種族清洗政策的一部分。
這些罪行若無國家與大型科技企業的支持,無法實現,這些企業為以色列提供數位基礎設施及軍事行動的演算法。像 Google 和 Microsoft 等公司已與以色列軍方簽訂合約,作為「Nimbus計畫」的一部分,提供雲端運算與人工智慧服務,旨在提升以色列在監控、間諜、目標鎖定及破壞方面的技術能力。
所有戰爭,不論使用何種手段,都是殘酷且不人道的。他們為了主導勢力的利益摧毀社會,消滅無辜生命。在此背景下,大型企業與資本主義政府及威權政權合作,利用人工智慧提升軍事優勢,並從銷售智慧武器中獲取巨額利潤。
這些技術被用來開發破壞工具,進一步破壞世界穩定。AI在戰爭中的運用並不會讓戰爭變得更「精確」或「傷害更小」,反而強化了戰爭的非人道性,將生死攸關的決策變成毫無倫理的演算法執行。
*[根據我著作《資本主義人工智慧:左翼面臨的挑戰與可能的替代方案——服務資本的科技還是解放的工具?》中的理念– 提供多種語言版本】
https://www.google.dk/books/edition/%E8%B3%87%E6%9C%AC%E4%B8%BB%E7%BE%A9%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7_%E5%B7%A6%E7%BF%BC%E7%9A%84%E6%8C%91%E6%88%B0/dh5mEQAAQBAJ?hl=da&gbpv=1
Comments