Page 115 - 《党政研究》2020年第2期
P. 115

管理以革命性的变革。从技术哲学的角度看,算法作为一种运算能力,根植于 “客观实
             体”内部,并依据 “主体”的价值偏好、有限理性对外部世界做出决策判断。我们认为,
             人工智能算法失灵引致的政治风险是指基于算法运作规则的人工智能体,由于自身内在的
             算法偏见、算法自利、算法黑箱 等失灵问题,引发对政治正义、政治透明、政治公意等
                                               ①
             民主价值理念的冲击、损毁乃至背弃,最终给政治系统的有效运行和人类社会发展加盖了
             一层阴影。基于此,人工智能的政治风险意味着算法失灵的政治风险,预示技术理性对人
             文价值的撕裂,所带来的后果将会是根本性、全局性和灾难性的。
                  与此相对应的,美国人工智能研究专家 Colin Garvey 认为人工智能除了引致政治风险
             外,还存在军事风险、经济风险、社会风险、环境风险、心理生理风险以及精神风险 。
                                                                                                        〔 31〕
             这些风险并非单列存在,而是相互交织共生出技术风险。Colin Garvey 从人工智能的政治
             风险角度,指出人工智能和大数据为精英们提供了前所未有的工具来操纵大众的观点 :
                                                                                                        〔 32〕
             例如 2016 年英国脱欧 ( Brexit)和美国唐纳德·特朗普的当选;新闻信息和搜索结果背后
             的人工智能导致了党派隔离,将选民锁在政党所属的回音室里;最终 AI 风险巩固和增强
             美国和其他地方的 “后真相时代”的民主危机。同时,Colin Garvey 也强调,社会风险会
             对人工生成的数据进行培训的人工智能系统再现了数据偏见的再生产, 进一步强化对穷
                                                                                        〔 33〕
             人、种族的社会歧视以及发展中国家的相对剥夺。
                  另一方面,从风险产生的路径看,人工智能风险会经历从工具性风险到价值性风险的
             动态变迁。在 《技术垄断:文化向技术投降》一书中,尼尔·波斯曼 ( Neil Postman)通
             过思考技术对人类社会、文化和心理的影响,提出免于技术对文化造成伤害的具体建议。
             他认为,人类技术的发展可分为工具使用、技术统治和技术垄断三个阶段,对应的人类文
             化大致也可分为工具使用文化、技术统治文化和技术垄断文化三种类型。在工具使用文化
             阶段,技术服务、从属于社会和文化;在技术统治文化阶段,技术向文化发起攻击,并试
             图取而代之,但难以撼动文化;在技术垄断文化阶段,技术使信息泛滥成灾,使传统世界
             观消失得无影无形,技术垄断就是集权主义的技术统治 。尼尔·波斯曼技术与文明的
                                                                        〔 34〕
             演进逻辑对思考当前人工智能之于人类社会的影响具有启发价值。以整体发展阶段的检
             视,人工智能可划分为 “弱人工智能、强人工智能和超人工智能三个阶段。弱人工智能擅
             长于在特定领域、有限规则内模拟和延伸人的智能;强人工智能具有意识、自我和创新思
             维,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学
             习等人类级别智能的工作;超人工智能是在所有领域都大幅超越人类智能的机器智能”。
                                                                                                         ②
             换言之,就弱人工智能而言,计算机在心灵研究中的主要价值是为我们提供一个强有力的
             工具,是人类改造自然和社会的人化力量;就强人工智能 (或超人工智能)而言,计算
             机不只是研究心灵的工具,更确切地说,带有正确程序的计算机其实就是一个心灵,已经
             具备了机器自主性意识。
                                       〔 35〕
                  这三个阶段的技术转换,潜藏着工具性风险与价值性的风险形态。在弱人工智能阶


                 ① 黑箱是指一个系统,该系统只能得到它的输入值和输出值,而不知道其内部结构。黑箱可以是任何系统,只要
                    是仅根据对其外部性质的研究来对它进行判断的系统。算法黑箱是指人工智能运作过程中内部运算信息的不透
                    明性,主要有三种:因公司商业秘密或者国家秘密而产生的不透明性,因技术文盲而产生的不透明性,以及从
                    机器学习算法的特征和要求将它们有效适用的测量中产生的不透明性。参见高奇琦. 人工智能:驯服赛维坦
                    〔 M〕 . 上海:上海交通大学出版社,2018:33;Jenna Burrell,“ How the MachineThinks: Understanding Opacity in
                    Machine Learning Algorithms”,Sep. 15,2015,https:/ / papers. ssrn. com/ sol3 / papers. cfm?abstract _ id =
                    2660674.
                 ② 参见中国信息通信研究院安全研究所编著的 《人工智能安全白皮书》( 2018),2018年 9月,第 2页。
                  1 ·  ·
                 1  4
   110   111   112   113   114   115   116   117   118   119   120