Page 63 - 《党政研究》2024年第1期
P. 63
器,因为其意识功能的需要,也在规划着超出预先设定的意识内容范围的身体。智能机器
不再会因为人所幻想出来的统治欲或者自惭形秽而寻找符合自我的实体身体。可以想象,
人也终将会抛弃这些。智能机器的类人能动性将在技术物的逻辑下继续发展自身,而能动
性的载体也不会按照人的身体构建 ” 。人工智能研发一路向前至于今天,已经将人面对
〔 41〕
的危险完全暴露了出来,这就是每一款人工智能机的诞生,都在给人设定新的规则,新的
限制,新的行为边界,而人的自由、人的权利、人的情感及其抒发或表达的方式,都在一
点一点受到限制,承受剥夺。人工智能自动打卡、人脸识别、天网、摄像头等等所呈现出
来的基本倾向是,不是人在为人工智能设定规则,而是人工智能在为人设定规则。在这诸
多的甚至层出不穷的技术设定人、技术设计人的存在和人的生活与行动的规则中,人开始
消失了,剩下的只是肉身化的物或者劳动工具,甚至沦为可以被技术化的权力和权力化的
技术任性处置的耗材。尤其是具备自如的自然语言创设及应用能力的 ChatGPT 和预测并改
革蛋白质结构进而改变生物工程的 AlphaFold2,从两个不同维度展示人工智能研发已经全
面拉开了人类被技术化存在的大幕,将人类存在推向了被后技术化存在的战场。如果再向
前迈一步,智能机器不可能只停留于按照人的意志和思维来构建自己的身体,而是以自己
的意志和思维来构建人的世界结构、格局和方式。化解这种危险的紧急刹车方式,就是严
格遵循人的身心边界法则,终止智能机器研发对人的身心边界的窥视,将智能机器的研发
严格限制在 “一般意义的工具”范围内。
要言之,遏止人工智能无限度研发,必须遵循的合自然法则,是保障人类安全的存在
论法则;必须遵循的共生节制法则,是保障人类安全的生存论法则;必须遵循的身心边界
法则,是保障人类安全的物种法则。如上三大人文法则的整合实施,构成阻止人工智能颠
覆人类的第四个人文法则,即限度开发法则,这是遏止人工智能无限度研发、保障人类安
全的实践论法则。遵循该法则,就是在人与智能技术、人与智能机器之间划定明确的、在
任何情况下都绝对不能突破的 “红线”。这就是人类在人工智能和智能机器面前的 “绝对
安全线”。基于如此定义,人工智能的限度开发法则具体落实为三个方面:
第一,人工智能研发必须将所有智能产品的自主性能力降低到最低限度。这个 “最低
限度”的明确指标,就是人工智能研发出来的产品只能成为 “一般意义的工具”,它可具
有严格的程序设计的逻辑思维能力,而不应该具有抽象思维的能力和任何形式的自主性调
节能力,即人工智能研发不能赋予智能机器以 “自制能力”,即不能拥有 “一旦机器的一
部分启动,那么该机器就根据外部环境进行自我反馈运行,而具备在一定时间内不受外部
控制的能力” 。
〔 42〕
第二,人工智能研发绝对不能勘探人类存在的边界,即绝不能赋予智能机器勘探人类
存在的身体边界、精神边界和心灵边界的能力。如果人工智能研发无视这一人的身心边界
法则,那么,所研发出来的智能产品 “将相当迅速地取代我们的存在” 。
〔 43〕
第三,人工智能研发绝不能赋予智能产品制定规则的潜能和使其潜能转换成规定的能
力。因为天赋人类对人工智能的屏障有二:一是制定规则;二是探索边界。人工智能目前
不能制定规则,是在按照人制定出来的规则行事,但并不意味着它始终会按照人的规则行
事,跳棋、象棋、围棋冠军被人工智能机战败的真正秘密,是这些人工智能机具有极强自
主性的深度学习的能力,这种自主性的深度学习的能力生成出可能内在地组织规则进而可
以进化到创造规则的境界。人工智能机的这种可能性,将被另一种冲动推动而会逐渐变成
现实,那就是我们还在继续研发甚至不遗余力地加大研发人工智能的力度,所以我们根本
不能保证人工智能没有制定规则的能力。反之,我们能够保证人工智能不具备制定规则的
能力的根本前提,也是唯一的和绝对的前提,是人类现在停止对人工智能的无限度研发,
1 · ·
6