Page 15 - 《社会》2025年第3期
P. 15

社会·2025·3

           会行动的秩序也依然是治理的目标。
               然而,无论在何种意义上,既有理论与实践都假设行动者是生物性
           人类,是可以赋予责任、权利与道德判断的人类行动者。在治理中,传统
           的非人类始终被视为用于治理的工具而非参与者。 在这一逻辑下,治理
           工具(政策、法律、技术)被设定为针对人类行为的外部约束和引导。 当
           机器智能不再只是被动地执行人类指令的工具, 还会主动介入人类事
           务并影响人类思考与行动时,既有治理框架便遭遇到结构性挑战:过去
           针对人类行动者的人治与法治架构还依然适用于人类与非人类行动者
           互动互生的人机社会吗?
               即使是粗浅地扫视已经存在的事实, 人们也很容易发现人机社会
           面对的治理困境。
               首先是治理主体界定困难,给治理带来无主可治的挑战。                          24  在人类
           社会,行动者通常是指具有自由意志和自主权力进而具有责任能力的
           自然人或法人,其核心假定是社会后果可追溯至明确的自然人或法人
           主体。 然而,当机器智能能自主地执行社会行动乃至引发社会后果时,
           谁是行为的主体常常会变得模糊不清。 例如,一辆处于自动驾驶状态
           的汽车发生事故、一个金融交易算法引发市场波动,在诸多类 似 的场
           景里, 带来这些后果的社会行动究竟应该视为机器智能的自主行为,
           还是开发者、所有者的延伸行动? 对行动主体法理定位的模糊是因为
           现行法律责任体系主要是围绕人设计的,且假定事故和错误主要源于
           自然人或法人的行为,而机器智能的行为显然已经超出了既有的治理
           主体设定。
               带 来 主 体 认 定 困 难 的 本 质 或 许 源 于 机 器 智 能 的 非 人 类 中 心 性 。
           现行治理体系以人类行动过 失 归 责 为 逻 辑 起 点, 制 度 预 设 是事 故 源
           于人的直接干预或监管疏 忽 , 而 机 器 智 能 会在 无 实 时人 工 指 令 场 景
           里生成社会后果。 以信贷审批系统为例,机器智能会基于多维度数据
           判断申请人是否符合放贷 资 格 , 其 决 定往 往 不 会被 终 端 操 作 人 员 干
           预,申请人也难以质疑拒贷或准贷理由。 在中国,某平 台 曾 把 机 器 智
           能 决 策 的 信 贷 审 批 系 统 作 为 一 种 企 业 创 新 以 标 示 信 贷 的 公 平 与 公

           24. 这个问题现在已 有诸多 讨论,最新的讨论可 参 见:李洋 、薛澜.2025 颠 覆、调适 与 协
           同:责任伦理视域下生成式人工智能的多主体治理机制研究 [J].电子政务,网络首发时
           间:2025-03-17.20:07:50.

           ·  8 ·
   10   11   12   13   14   15   16   17   18   19   20