Page 19 - 《社会》2025年第3期
P. 19

社会·2025·3

           更正。 因此,机器智能的介入有可能使治理过程变得更不透明,也更难
           监督,从而使得依赖信息公开和理性审议来确保合法性的传统治理模
           式面临失灵的风险,治理的公平性和目标与技术的不透明性之间出现
           了尖锐矛盾。
               我们都知道,算法正当性,或者说人们之所以运用算法,是因为算
           法可以带来效率。 问题是,如果因为追求效率和结果优化而牺牲过程透
           明与程序公平,便会对治理的社会合法性造成威胁。 公众在缺乏决策参
           与感和没有知情权的情况下,容易感觉到被排除在决策流程之外,从而
           对算法治理产生普遍的不信任感和抵触情绪。 就像本文前面所提到的,
           英国民众就曾以评分算法不透明为由, 认为算法低估了部分学生的成
           绩且无法给出合理的解释,最终迫使相关部门撤回相关决策。 其实,人
           类对算法的反对只是表象,其本质是,当治理权由机器智能掌控时,权
           力的行使就失去了明确的责任主体,机器智能无法承担社会责任,而人
           类又以算法决定为由推诿义务,进而导致权力无主体。 人机相互推诿带
           来的是人机社会的失序。 种种迹象表明,机器智能带来的黑箱决策的确
           会削弱既有治理机制的透明度和可问责性, 使治理既无法通过程序正
           义获得社会认同,也难以通过结果正义证明自身的价值,进而从根本上
           挑战了治理的公信力和合法性基础。
               治理的一个核心要求是过程的公开性与结果的可审议性, 这意味
           着,治理行为不仅需要产出符合公共利益的结果,还需要以公众可理
           解、可参与的方式来实践。 然而,机器智能治理引入黑箱系统之后,原
           先针对人类社会治理的这一原则被系统性破坏。 机器智能,特别是深
           度学习模型的内部运作机制,复杂到即便是开发者本人也无法准确追
           踪每一次决策的内部路径,             33  由此衍生出三重连锁问题:其一,非解释
           性,即算法无法向治理对象说明为什么某人被识别为高风险对象或为
           什么某案被标记为异常,决策逻辑成为“无法破译的密码”;其二,非问
           责 性 ,即 在出 现 错 误 时 ,系 统 背 后 的 责 任 者 不 明,是 数 据 提 供 者 的 偏
           差、算法设计者的失误,还是算法自主学习的“意外”? 责权模糊导致行
           动者之间相互推诿,进而难以维护人类的福祉与利益;其三,非可参与
           性,即机器智能一旦被设定,即便是开发者也无法介入由算法规则 驱

           33. Burrell,Jenna. 2016.“How the Machine Thinks: Understanding Opacity in Machine
           Learning Algorithms.” Big Data & Society 3(1):1-12.

           · 12·
   14   15   16   17   18   19   20   21   22   23   24