點擊右上角
微信好友
朋友圈

請使用瀏覽器分享功能進行分享

作者:吳靜(南京師范大學哲學系教授)
當數字技術以指數級速度重塑社會結構時,數字社會的復雜性與智能正義的建構已成為當下人文社會科學與技術領域必須共同面對的核心命題。人類生活世界的全面數智化與全球數字發展不平衡的持續存在,共同揭示了智能正義作為數字時代價值元問題的緊迫性。
智能正義是復雜性系統中的正義
數字社會從來不是一個均質的單一系統,其復雜性本質上源于數字邏輯與社會邏輯的深層張力。從認知范式看,數字邏輯以確定性和可計算性為核心,通過數據符號化與算法建模將現實世界轉化為可計算的形式系統,延續了認知計算主義對信息的處理和理解。這種方法論上的指導在自然語言處理和機器學習等基礎技術上取得了巨大成效,但同時也將世界的豐富性和復雜性進行還原主義的簡化,不但導致非量化需求極易被遮蔽,也使得算法建模的思路極大影響了智能系統對問題的理解與解決。真實的社會邏輯不總在確定性范式當中。算法的輸出是程序執行的自然結果,但其蘊含的社會意義無法通過算法自身提供,因為算法結果與現實的映射關系由底層數學模型決定。社會系統的復雜性遠超數學模型的表征能力:它涵蓋歷史文化積淀、價值觀念博弈、偶然事件擾動等多元維度。這些要素既無法被完全量化,也難以通過靜態的數學假設進行還原。
數字社會建設是涉及政治、經濟、文化等多個維度的系統性復雜議題。從全球技術發展軌跡來看,數字技術的賦能范圍持續拓展,且技術本身仍處于不斷演進與迭代的過程中。隨著數字技術的更新,數字邏輯與社會邏輯逐漸交織融合,形成復雜的互動關系:一方面,數字空間中的社會行為會受到算法、內容管理系統(CMS)、操作系統(OS)等技術架構的制約;另一方面,技術架構也會被社會規范所嵌入。在數字技術全面賦能社會的進程中,這兩種異質邏輯的交織狀態,使得社會系統的復雜性在廣度上呈現出不斷彌散的趨勢。
技術理性的恒定性與社會的復雜狀態交織的張力,在智能系統的實踐場域中不斷生成新的價值與倫理命題,迫使我們必須重新審視正義的內涵與實現路徑。當算法開始主導資源配置、風險評估與社會治理等核心領域時,傳統正義理論所依賴的抽象平等原則與形式化標準,正在遭遇數字空間特有的結構性矛盾。智能正義的實現絕非技術中立性的自然延伸,而必須建立在充分尊重差異與發展不平衡的情境敏感性基礎之上。
數據正義是智能正義的基礎和前提
數據正義的核心矛盾植根于數據生產與分配的結構性失衡機制。在數字社會的復雜系統中,數據作為連接物理世界與數字世界的神經中樞,其生產與分配遵循著獨特的“馬太效應”:數據的多寡決定了在數字世界中被看見的概率。更值得關注的是,不同來源的視頻數據在質量上存在系統性差異:創作者的主觀動機、制作流程及社會文化語境差異,共同塑造了內容表現形式與價值取向的異質性。這種多維度的差異性對人工智能訓練數據的體系化構建提出了根本性挑戰:如何在保持數據規模效應的同時,有效整合形態多樣、價值多元的原始素材,確保訓練數據集的代表性與合理性,已成為需要持續驗證的核心命題。該挑戰的復雜性不僅體現在物理事實層面的驗證困難,更突出地表現為對語義張力的處理困境。相較于可直觀驗證的視覺錯誤,對富有隱喻空間和闡釋潛力的文本提示進行具象化轉換的合理性判定,往往更具認知挑戰性。當Sora以“模擬世界”為名獲得對現實表征的主導性解釋權時,技術系統可能通過數據篩選機制形成隱性的話語壟斷。
這就意味著,數據庫的構建邏輯與微調策略直接塑造著人工智能的認知圖式。在數據主義的技術樂觀論語境下,數據控制權已演變為新型知識霸權:掌握數據采集、篩選與應用權限的主體,實質上獲得了定義知識形態與文化樣態的權力。這種排他性技術架構通過算法推薦機制與內容分發優勢,不斷強化自身產出結果的權威性,進而形成數字時代的認知中心化。
全球數字鴻溝的持續擴大使超過39億人口被排除在數據生產體系之外,這種接入不平等不僅導致發展機會的分化,更催生了“數據殖民主義”的隱性支配模式:技術優勢群體通過掌控數據采集、標注與建模的全流程,將自身認知范式編碼為普遍性數據標準。實現數據正義需要同時在數據采集、清洗、表征等環節持續發力,確立多元主體參與的數據建構機制,同時保證數據在分層分類中的合理性分布,消解數據霸權的認知宰制。
算法正義是智能正義的機制保證和設計要求
算法作為數字社會的核心控制機制,其運行邏輯呈現典型的“黑箱化”特征。如果說生成式人工智能因數據偏見所產生的歧視性輸出可以通過優化數據庫的顯性操作來解決的話,那么算法正義的問題顯然要難以察覺得多。這種技術霸權的隱蔽性在于算法決策過程對社會價值的系統性過濾,表現為人工智能系統通過行為數據建模實現了對用戶決策路徑的精密干預。當平臺積累足量的行為軌跡數據后,可運用強化學習框架構建用戶畫像,進而實施動態干預策略:在時空維度上選擇最佳推送時機與場景觸發點,在內容維度上設計具有心理操縱性的信息呈現方式,最終通過獎勵函數設計引導用戶作出符合平臺利益最大化的行為選擇。這種技術干預已突破傳統推薦系統的信息匹配邏輯,演變為具有行為矯正功能的規訓機制,將多元化的用戶需求強制納入算法預設的行動軌道。
這種技術治理范式的蛻變標志著工具主義的異化:當數字資本通過算法架構將工具理性轉化為規訓權力,傳統技術中性論的預設便被徹底顛覆。算法不再僅僅是價值中立的工具,而成為資本實現行為預測與控制的權力裝置。其危險性在于,這種基于數據監控的規訓體系具有自我強化特性。
要在算法中實現正義,不僅需要在設計階段引入包含倫理學家、社會學家與公眾代表的跨學科審查機制,對算法目標函數的價值預設進行批判性檢視,也要在技術設計中嵌入公共理性,通過多元價值函數的設計防止社會關系被簡化為單一指標,維護社會共識形成的自然過程。
應用正義是智能正義的功能實現與價值指向
應用正義的實踐困境本質上是技術普適性與社會情境性的矛盾外化。數字社會的復雜性要求算法系統在不同應用場景中實現技術邏輯與社會價值的動態適配,但標準化的算法框架難以兼顧多元價值訴求。
智能正義作為一種抽象理念,強調在人工智能系統的設計、開發、部署全生命周期中嵌入公平、透明、責任、福祉等核心倫理原則。然而,這些原則的抽象性決定了它們無法直接、自動地轉化為每一個具體場景中的恰當結果。應用正義正是架設在抽象原則與具體實踐之間的關鍵橋梁。它的意義體現在:唯有通過應用正義的機制設計與實踐操作,智能正義的抽象倫理原則才能在特定情境中被具象化,轉化為可執行的技術規則和決策邏輯,從而產生積極的社會效應與價值實現。
數字社會的復雜性決定了智能正義的三重維度之間存在深刻的互構關系:數據正義為算法正義提供真實性基礎與公平性前提,算法正義的實現依賴數據治理的科學性與應用場景的適配性,應用正義的實踐又反過來影響數據生產的價值導向與算法設計的倫理考量。這種系統性關聯要求智能正義的建構必須超越單一維度的局部優化,在數據、算法與應用之間建立協同治理的生態體系。

紀念臺灣光復80周年大會在京召開
酒泉衛星發射中心全力備戰神舟二十一號任務