Page 116 - 《党政研究》2020年第2期
P. 116

段,技术风险以工具属性而出现,是一种现实性的风险情形,属于人类可控的风险范畴。
             随着人类对智能技术的日益精深,工具层面的技术缺陷会被逐渐攻克,弱人工智能阶段的
             工具性风险会得到有效化解。然而在强 (或超)人工智能阶段,人工智能体作为具有独
             立意识的 “主体”而存在,将摆脱服务于人类的工具性行动模式,并与人类处于竞争状
             态,最终会诱发人工智能的工具性风险升级为价值性风险。在价值性风险阶段,人工智能
             体逐渐脱离 “人类制造”的智能,异化为一种独立人类的它者,有着自身的运作程式和
             生存机理,它们既不愿受制于阿西莫夫所规制的 “机器人三定律”,又可能以 “自身”
                                                                                     ①
             的 “主体性”重构智能体的它者秩序,与人类平分秋色,共享生存空间。这种智能体的
             价值性诉求,将会是人类有史以来最为严重的社会风险。面对人工智能技术已然形成的社
             会问题与即将到来的技术风险,人类如何因应,是选择鸵鸟心态,听之任之,还是主动迎
             击,展现造物主之担当?人类必须有所抉择。

                 四、科技向善:人工智能风险的化解思考

                  2018 年 10 月 31 日,习近平总书记在中共政治局集体学习会议上强调:“要加强人工
             智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、
             可控”。为此,我们认为规避人工智能风险必须经由技术自身的发展逻辑然后达于人自身,
             通过更新人文治理理念、健全治理结构、优化治理工具等面向圈定技术发展边界,最终坚
             守 “在技术发展面前维护人类尊严的底线” 。
                                                          〔 36〕
                  (一)在治理理念上:审视人工智能迭代中技术边界与人类底线的关联性
                  技术边界标识技术作为工具性存在的质的规定,体现为技术功能的有限和极限,人类

             底线则指人相对于自然法则而存在的人的主体性,以及作为人的精神特质和精神生活而显
             现的人的精神维度 。人类底线是人之为人的最低标准,是人类区别于其他自然物种的
                                 〔 37〕
             根本属性,而技术边界体现了人类发挥主体性改造自然和社会关系的工具性能力,也归属
             于人类能够驾驭的技术理性范畴。人类的底线为合理追求技术圈定了有效边界。在技术边
             界之内,人类可以凭借理性判断维系正常的秩序空间与人类生存,而技术因满足了人类需
             求而得以更新发展。人的底线思维标识人类价值存在的基础性要件,也是处理人与技术关
             系的最低尺度。在人工智能技术广泛运用于人类社会时,这种底线维度不能丧失或沦陷,
             而必须得到应有的重视与强化。原因在于人的主体性与技术的工具性。人类为了维护社会
             发展目的,必然要制造、使用工具,以释放人类自身的生理局限,这是主体的人类之于工
             具性的要求。反之,如果人类丧失了底线思维,工具或技术成为主体,人类反制于技术,
             则表明人性的泯灭与社会秩序瓦解,会衍生出系列社会风险。因此,强化人的底线思维与
             审视技术发展的边界是今后人工智能技术推广应有的重要议题。
                  (二)在治理结构上:构筑人工智能风险化解的协同治理格局
                  人工智能风险的生成源于技术的客观性缺陷与人类的主观性动机,是高端技术嵌入人
             类社会系统的不确定性后果,这决定人工智能风险治理是政府、科学共同体、公民社会共
             同所面临的亟待合作治理才能化解的一项艰巨任务。其一,在传统治理模式中,政府作为
             风险社会的危机应对主体,拥有化解技术风险的资源优势,然而,由于人工智能的高端技


                 ① 美国作家艾萨克·阿西莫夫 ( Isaac Asimov)在小说 《环舞》( Run around)中第一次提出,并在小说 《我,机
                    器人》( I,Robot)中系统阐释。具体指:第一,不伤害定律:机器人不得伤害人类,也不得见人受到伤害而袖
                    手旁观。第二,服从定律:机器人必须服从人的命令,但不得违反第一定律。第三定律,自保定律:机器人必
                    须保护自己,但不得违反一、而定律。在三条定律在制造机器人时,就被嵌入其大脑,永远无法消除。
                                                                                                      1 ·  ·
                                                                                                     1  5
   111   112   113   114   115   116   117   118   119   120   121