Page 18 - 《社会》2025年第3期
P. 18
“当代中国的数字社会及其治理”笔谈
31
亡或伤残的情况, 非常遗憾的是, 在事故发生后的诉讼与裁决中,几
乎没有一起事故能明确区分责任。 这种人机混杂的归责泥潭正越来越
多地导致人机社会治理的伦理困境和制度危机。 如果无法确认机器行
动后果的责任归属,治理系统的合法性便会被侵蚀。
再次, 算法黑箱 32 以及因此导致的治理透明度下降问题给治理实
践带来了直接冲击。 传统科层治理和法治原则强调决策过程的透明公
开和可追溯性,这是从社会视角确保治理合法性的基础,即,无论是政
策 制 定依 据 、行 政 裁量 标 准 ,还 是 司 法 裁 判 逻 辑 ,都 需 要 以 社 会 可 感
知、可检验、可追溯的方式呈现。 然而,在诸多场景里,机器智能的决策
机制显然与此不符。 由算法产生的决策可能是基于海量维度的数据和
复杂模型,但因其太过复杂而致使个人难以理解其中的完整逻辑。 人
们现在有一个共识:算法决策的一个根本问题在于,连编写算法的人
也无法解释具体的判断过程, 进而使得决策 无 法获 得 人 类 理性 的认
可。 算法决策透明度的缺失既使得监管者难以穿透黑箱实施有效监督
(例如,监管部门无法追溯算法是否遵循法律规则或政策目标),也使
得公众难以通过程序正义感知决策的公正性,甚至可能因为不理解决
策逻辑而质疑其背后隐藏着利益输送或偏见 。 尤其是在公 共 治理领
域,如果重要决策来自算法黑箱,社会无法知晓依据,社会公平和公开
原则就会受到实质性损害,治理公信力也会因为对暗箱操作的猜疑而
被消解。
进一步说, 算法决策隐含的偏见或歧视在黑箱环境中更不易被察
觉和纠正。 诸多研究和案例均揭示,算法可能由于训练数据的历史偏
差 (如数据集中缺乏特定群体的有效样本)或设计者的无意识偏见而
对某些群体产生系统性的不利,例如,招聘算法可能因为训练数据多
来自历史招聘记录,历史记录中存在的性别或种族歧视又会被算法学
习并延续,从而导致新的招聘结果依然偏向特定群体。 在黑箱环境下,
这些不公正问题很难通过传统的程序质询机制被发现,因为无论是行
政听证、司法审查还是公众参与,都需要以决策逻辑的可追溯性为前
提。 当算法决策的依据隐藏在复杂模型中时,被歧视的群体甚至无法
明确指出歧视究竟发生在哪个环节,更难以通过法律途径寻求救济和
31. Jatavallabha,Aravinda. 2024.“Tesla’s Autopilot:Ethics and Tragedy.” arXiv:2409.17380.
32. 讨论算法黑箱的文献汗牛充栋,这里不再具体引用。
· 11·