Page 17 - 《社会》2025年第3期
P. 17
社会·2025·3
机器智能广泛渗透到人类生产、生活、情感活动之前,一张普通的数字
28
交通卡便已构建起非人行动者之间的多重代理链, 其中就集成了开
发者的观念、 机构的目标、 并非全面的历史数据和技术自身的不确定
性。 尽管拉图尔认为由行动构成的社会网络是由一连串节点共同协作
29
实现的, 然而,除了认定主体,治理还需要在主体与责任之间建立可
靠的关联。 在人机社会,决策和行动由算法设计者、数据来源、模型参
数、训练环境、使用提示词等共同生成,与主体的数据分身具有相对性,
责任也被稀释在复杂的人机数据点位, 使得机器智能的决策与行动具
有高度的集体制造特征。
特别需要注意的是, 集体制造意味着不仅存在人类和机器各自的
决策和行动,更关键的是还有人类与机器多重互动的决策与行动。 然
而,在现行法律与伦理层面,集体制造往往意味着集体无 责或 责任被
稀释,尤其是人类与机器经过多轮复杂交互产生的集体制 造 ,完 全 可
以理解为是承载着责任的复杂数据集。 一旦出现偏差或损害事件,若
按传统方式简单归咎于单一对象,就相当于让单一对象为机器智能的
内在错误承担责任;若一味追究开发者的责任,又会因为 机器智能自
学的特点而难以界定过失。 许多机器智能内部决策的过程高度复杂且
缺乏可解释性,当决策过程对利益相关方不可解释时,就意 味 着 在事
实上无法落实责任,甚至难以确定错误的来源,从而会导 致 典 型 的 责
任真空,给法律和社会伦理带来前所未有的挑战。 如果责任不明确,治
理便失去了问责的核心和基础,进而会威胁治理的正当性 ,带 来 的 正
是治理危机。
例如, 在美国发生的机器智能图像生成工具因训练数据的偏差而
歧视性地再现某族群形象的事件中, 当公众质问是谁的责任时,平台
30
声称算法是自我学习的,平台无权控制结果,受影响者也难以在法律上
明确诉讼对象。 另一个典型例子是,在与自动驾驶系统相关的重大交通
事故中, 存在系统把实体障碍物误判为雨雾进而导致严重碰撞致人死
28. 邱泽奇.2018.技术化社会治理的异步困境[J]. 社会发展研究(4):2-26.
29. Latour,Bruno.2005. Reassembling the Social:An Introduction to Actor鄄Network鄄Theory.
Oxford:Oxford University Press.
30. Birhane,Abeba,Vinay Uday Prabhu, and Emmanuel Kahembwe. 2021.“Multimodal
Datasets:Misogyny, Pornography, and Malignant Stereotypes.” arXiv:2110.01963.
· 10·