Page 18 - 《社会》2025年第3期
P. 18

“当代中国的数字社会及其治理”笔谈

                                31
                亡或伤残的情况, 非常遗憾的是, 在事故发生后的诉讼与裁决中,几
                乎没有一起事故能明确区分责任。 这种人机混杂的归责泥潭正越来越
                多地导致人机社会治理的伦理困境和制度危机。 如果无法确认机器行
                动后果的责任归属,治理系统的合法性便会被侵蚀。
                    再次, 算法黑箱       32  以及因此导致的治理透明度下降问题给治理实
                践带来了直接冲击。 传统科层治理和法治原则强调决策过程的透明公
                开和可追溯性,这是从社会视角确保治理合法性的基础,即,无论是政
                策 制 定依 据 、行 政 裁量 标 准 ,还 是 司 法 裁 判 逻 辑 ,都 需 要 以 社 会 可 感
                知、可检验、可追溯的方式呈现。 然而,在诸多场景里,机器智能的决策
                机制显然与此不符。 由算法产生的决策可能是基于海量维度的数据和
                复杂模型,但因其太过复杂而致使个人难以理解其中的完整逻辑。 人
                们现在有一个共识:算法决策的一个根本问题在于,连编写算法的人
                也无法解释具体的判断过程, 进而使得决策 无 法获 得 人 类 理性 的认
                可。 算法决策透明度的缺失既使得监管者难以穿透黑箱实施有效监督
                (例如,监管部门无法追溯算法是否遵循法律规则或政策目标),也使
                得公众难以通过程序正义感知决策的公正性,甚至可能因为不理解决
                策逻辑而质疑其背后隐藏着利益输送或偏见 。 尤其是在公 共 治理领
                域,如果重要决策来自算法黑箱,社会无法知晓依据,社会公平和公开
                原则就会受到实质性损害,治理公信力也会因为对暗箱操作的猜疑而
                被消解。
                    进一步说, 算法决策隐含的偏见或歧视在黑箱环境中更不易被察
                觉和纠正。 诸多研究和案例均揭示,算法可能由于训练数据的历史偏
                差 (如数据集中缺乏特定群体的有效样本)或设计者的无意识偏见而
                对某些群体产生系统性的不利,例如,招聘算法可能因为训练数据多
                来自历史招聘记录,历史记录中存在的性别或种族歧视又会被算法学
                习并延续,从而导致新的招聘结果依然偏向特定群体。 在黑箱环境下,
                这些不公正问题很难通过传统的程序质询机制被发现,因为无论是行
                政听证、司法审查还是公众参与,都需要以决策逻辑的可追溯性为前
                提。 当算法决策的依据隐藏在复杂模型中时,被歧视的群体甚至无法
                明确指出歧视究竟发生在哪个环节,更难以通过法律途径寻求救济和

                31. Jatavallabha,Aravinda. 2024.“Tesla’s Autopilot:Ethics and Tragedy.” arXiv:2409.17380.
                32. 讨论算法黑箱的文献汗牛充栋,这里不再具体引用。

                                                                          · 11·
   13   14   15   16   17   18   19   20   21   22   23