Page 117 - 《党政研究》2020年第2期
P. 117

术性与不确定性,其所衍生的技术风险更为复杂性、多样性、严重性,致使单凭政府一己
             之力难以有效规制风险。其二,“科技风险具有无法预知性,科学共同体难以保持技术中
             立的立场去提供客观可靠的知识,各治理主体已经不能单纯依靠技术专家的建议展开治理
             实践” 。其三,风险具有建构性,是社会公众基于所处时代环境与文化的前瞻性判断,
                    〔 38〕
             然而在人工智能所引领的时代中,社会公民由于无法获取类似于政府或高端技术企业的知
             识优势,在风险感知与建构上缺少话语表达权,将加剧人类风险治理的难度。这三类主体
             化解技术风险的能力缺陷,致使人类社会进入了科林格里奇困境 。改变这种困境的可能
                                                                                  ①
             路径建要通过构建一种良性互动、横纵联通的协同共治机制。人工智能风险的协同治理机
             制涵盖政府组织、非政府组织、专家团体以及公众等多元主体。这种治理机制可以 “利用
             各自优势而逐渐组成技术治理的决策权威联盟” 以克服 “没有任何一个机构能够提供支
                                                               〔 39〕
             撑决策的全部知识” 的决策难题,而且 “整个决策过程可由共同行动对象网络代替等级
                                  〔 40〕
             关系领导来完成” ,最终实现政府单一治理体系向多元主体协同共治的模式转变。从协
                                〔 41〕
             同方式看,人工智能治理风险的协同治理机制在于打破传统风险治理的命令———控制模
             式,倡导政府与非政府组织、公民等利益主体之间的民主协商与平等互动网络,构建 “主
             体间默契配合、井然有序的自发和自组织集体行动过程,通过集体的自组织行为实现社会
             治理资源配置效用最大化和社会系统整体功能的提升” ,进而促进人工智能风险的有效
                                                                       〔 42〕
             治理。
                  ( 三)在治理工具上:优化人工智能风险治理的多样载体
                  公共政策学认为,治理工具是政策主体依治理形势所采纳使用而促使政策共识落地,
             并转化为治理目标的中介手段与途径。在人工智能风险化解中,治理工具一般涵盖 “国家
             科技规划、行政法规、财政资金与基础设施等为代表的政府性工具,也有价值敏感性设
             计、社会技术愿景、建构性因素评估、监管式自治、技术利基等科学共同体为主导的治理
             工具,还有公民社会通过非正式或经政府授权或赋权的治理工具” 三类。总体看,政
                                                                                     〔 43〕
             府、科技共同体、公民社会的三类主体所设计与选用的工具呈现出刚性与柔性之特色,仅
             凭单一类治理工具难以实现人工智能风险的治理目标,需要通过优化、整合多样化的治理
             工具,才能发挥人工智能风险治理的最优效能。其一,就政府主体而言,人工智能风险治
             理需要坚持多层级立法互补原则适时出台相关法律体系。在国家层面对民事商事法、行政
             法、刑法、经济法等现行法律制度进行修订,使之适应人工智能的发展需要;在中间层
             面,要通过国务院行政法规项目推动制定 “机器人使用安全管理条例”等;在地方性立
             法层面,要出台人工智能在政务、家居、医疗卫生等领域的应用发展与风险防治 等具体
                                                                                                   ②
             地方性规章。其二,要提升科技共同体的行业伦理建设,增强人工智能风险化解的可操作
             性。2019 年 6 月 17 日,国家新一代人工智能治理专业委员会发布 《新一代人工智能治理
             原则———发展负责任的人工智能》,提出人工智能治理的框架和行动指南,强调和谐友好、
             公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原
             则。这些原则有助于治理人工智能发展过程中的有限理性、利益导向以及防范类人主体
             性,然而由于这些原则多属于抽象性、概括性、原则性的话语表述,对人工智能风险的治


                 ① 所谓 “科林格里奇”困境,于 1980年英国科林格里奇提出,描绘了人类理性与科技风险治理的悖论,即在技
                    术发展早期,可以对技术后果进行控制时,却因各种限制而不知如何控制;当技术后果日益明显时,虽懂得如
                    何控制却很难对其进行控制。参见 Collingridge D. The Social Control of Technology. London:Frances Printer,

                    1980.
                 ② 参见 2019年 5月 16日,第三届世界智能大会的高峰论坛上天津市法学会副会长高绍林的发言. 2019 年 6 月 4
                    日,法治日报。http:/ / dy. 163. com/ v2 / article/ detail/ EGRBQT4O0512906K. html
                  1 ·  ·
                 1  6
   112   113   114   115   116   117   118   119   120   121   122