Page 110 - 《党政研究》2020年第2期
P. 110
李世石为指标性事件,人工智能开启对人类社会权力组织、经济生产和治理方式的颠覆性
变革。人工智能 “在带给人类巨大进步与福利的同时,也带来了不可忽视的伦理风险、极
化风险、异化风险、规制风险和责任风险” 以及决策风险等现代性社会问题。对此,已
〔 2〕
有研究立足法学、伦理学、管理学等展开跨学科研究,打破人工智能发展的工程 “技术领
土”边界,并围绕技术、社会、治理视角进行学术反思,表达对人工智能风险及其化解的
人文关怀。
首先,技术视角的风险,主要源于算法客观性与主观性等技术属性的内在缺陷。算法
的客观性在于人类有限理性之下对算法技术的不确定性认知,而算法的主观性强调算法程
序的主体恶念,两者造就了人工智能的 “算法失序”,进而衍生为人工智能风险。在人工
智能算法被视为一种新的权力形态时,囿于算法歧视、算法黑箱、算法偏见以及算法自利
等主客观缺陷,人工智能算法的政治与道德风险在所难免。避免因算法失序带来的技术风
险,应实行算法监管关口前移,“树立以风险防范为目的的监管思路,实行内容与算法并
重的双轨审查机制,以及设立平台责任与技术责任双轨并行的责任体系,并对算法的生产
性资源数据的收集和使用进行合理限制” 。
〔 3〕
其次,社会视角的风险,来自于人工智能应用中呈现出来的 “墨菲定律”。一是法
①
律风险,认为人工智能作为一种发展型的技术体系,具有超前性、复杂性的社会属性,然
而因缺乏法律的有力规制会产生法律失效危机。当前人工智能法律风险涉及智能体的法律
主体资格评价 、行为责任认定以及刑罚类型设置 等议题,强调从违法主体 (是人类还
〔 5〕
〔 4〕
是类人)为出发点规避社会风险 。二是伦理风险。人工智能的发展可能引发责任伦理冲
〔 6〕
突的社会扩大问题与隐私群体化泄露风险 ,通过规约智能机器设计者、所有者、使用者
〔 7〕
等主体行为,提倡人工智能研发与应用阶段的伦理道德,才能在保障智能机器与系统的安
全基础上,维护人类社会的健康发展。 三是失业风险。人工智能技术的迭代升级,一方
〔 8〕
面可能会取消大规模的简单劳动,形成结构性失业,甚至会击垮社会分层结构的中产阶
级,最终致使社会资源流向少数资本精英和技术精英,加剧社会走向实质的不平等 ,同
〔 9〕
时也诱发失业人员无法获得与社会技术相匹配的新技能的再就业风险 〔 10〕〔 11〕 。有部分研究
立足国家层面,剖析人工智能对国家主权安全、国际战略合作、数据共建共享以及国家责
任 等方面的风险治理命题。
〔 12〕
最后,治理视角的风险。社会领域在吸纳人工智能技术实施智能化治理时,潜在着人
工智能技术的 “反制性”,即技术发展的不确定性导致社会治理存在从 “数字民主”滑向
“技术利维坦”的潜在风险 。有效规制人工智能的潜在风险,需要从善治的角度着手,
〔 13〕
“通过社会多元主体的共治,构建可控的应用环境、可靠的安全属性、合理的责任机制,
形成科学和有效的人工智能风险治理体系” 。同时,应从基础治理、综合治理、伦理治
〔 14〕
理相统一的系统治理思路出发构建人工智能风险化解的整体性机制。
已有文献立足技术、社会、治理三个视角,遵循现象 -原因 -对策的阐释路径反思人
工智能的风险生发机理,这些研究为本文的展开提供有益支持。然而,相对于人工智能技
术的突飞猛进,现有的研究略显瓶颈,亟需在深度上拓展。本文以此为进路,结合风险社
① “墨菲定律”、“帕金森定律”和 “彼德原理”并称为二十世纪西方文化三大发现。墨菲定律是一种心理学效应,
由爱德华·墨菲 ( Edward A. Murphy)提出的,亦称墨菲法则、墨菲定理,认为如果有两种或两种以上的方式
去做某件事情,而其中一种选择方式将导致灾难,则必定有人会做出这种选择。简言之,如果事情有变坏的可
能,不管这种可能性有多小,它总会发生。参见 〔美〕阿瑟·布洛赫. 墨菲定律 〔 M〕 . 太原:山西人民出版
社,2012。
0 · ·
1 9