Page 37 - 《党政研究》2025年第6期
P. 37
夺策略———借助政治干预、人工智能技术控制、数据殖民等手段,强制推动这些国家的社
会结构数字化改造,最终为数字帝国主义国家通过算法统治、数字平台租金、数据榨取等
方式建构的全球数字统治体系铺路,数字主权成为国家政治安全的核心议题。这种新型国
家主权争夺不仅重构了国际政治经济格局,还加剧了国家政治安全的外部风险,使得数字
空间成为大国博弈的新战场。
(二)人工智能诱发国家政治安全风险的技术异化逻辑
随着人工智能在经济、政治、社会等各领域的扩散,它极易使国家利用其技术理性编
织政治权力网络,成为智能时代国家治理的重要工具。 然而,人工智能具有扩散性和广
〔 12〕
泛性,而相应的约束机制却存在滞后性,人工智能技术滥用问题与算法歧视等问题逐渐浮
现,从而加大国家政治安全风险发生的概率。
一方面,人工智能技术滥用会导致政治决策出现 “算法黑箱”与 “模型幻觉”危机。
人工智能技术丰富了国家政治安全系统的技术工具选择,无论是在社会治理、政治决策还
是在突发性事件应对中,均可通过解析海量数据,以此产生与预期相符的结果,带来高效
决策支持。 人工智能技术的输出质量,很大程度上依赖于输入数据的质量,即清晰度与
〔 13〕
准确性。然而,残缺不全或被篡改的数据犹如 “贫瘠的土壤”,可能孕育出带有偏见乃至
危害的人工智能判断。 人工智能还可能因统计学习的局限性、训练数据的偏差或滞后、
〔 14〕
拼凑式推断等因素出现 “模型幻觉”,即输出与事实不符、逻辑混乱或凭空捏造的信息,
从而降低人工智能辅助政治决策的中立性、科学性与可操作性。同时,随着人工智能加速
渗透国家政治安全系统,生成式人工智能展现出类人智能特征,极易使政治决策主体形成
对智能技术的依赖,并逐渐丧失对复杂国家政治安全问题的批判性反思能力。此外,对智
能机器的依赖度越高,也就意味着民众的政治参与将被工具理性排斥在决策框架之外,智
能机器生成的 “最优解”将主导政策制定,形成 “技术利维坦”的治理封闭空间。由此
导致的政治决策失误或制度有效性不足往往会引发社会秩序动荡,助长政治流言滋生,加
剧国家政治安全的不确定性。
另一方面,算法技术的事实歧视冲击传统政治秩序与社会价值体系。算法技术本身是
具有中立性的,不存在内在的政治歧视倾向,但由于应用于训练算法的数据集存在偏差、
算法模型自身的缺陷、设计者植入的偏见以及企业追求利润最大化的动机等因素,算法歧
视在事实上客观存在。 带有偏见的数据训练人工智能大模型,会导致不同群体间价值观
〔 15〕
的碰撞、对立乃至分裂,并进一步诱发国家政治安全风险。 在国家政治安全领域,具有
〔 16〕
价值偏向的数据嵌入算法程序,经由算法技术融合便产生算法偏见与算法歧视。当用户通
过搜索引擎、内容推荐、定向推送等交互界面与算法程序对接时,算法技术的恶意偏向便
通过各种方式呈现出来,进而诱发舆论场中的极化言论与意识形态渗透。这不仅可能削弱
主流意识形态的传播效能,还可能由于价值导向的偏移引发民众对政权合法性的质疑,最
终埋下国家政治安全隐患。
(三)人工智能诱发国家政治安全风险的资本运作逻辑
以数亿级美元为单位的研发投资门槛,导致仅有少数掌控雄厚资本的科技巨头主导人
工智能这一 “科研军备竞赛”的发展走向。资本的逐利本性或对资本权力的滥用,往往
会放大人工智能的局限性,进而削弱政权合法性并诱发国家政治安全风险。
一方面,人工智能资本运作的外溢效应会增加国家政治安全的 “不安定性”。当前在
人工智能的创新版图中,私人资本始终把控着核心配置权。在技术垄断方面,资本驱动的
头部人工智能企业正通过 “数据虹吸—算法规训—场景垄断”的三维控制模型,构建新
型数字霸权。以 Open AI 公司为例,其通过爬取维基百科、Reddit 中文社区、Quora 中文
问答等海外中文网站,获取中国政策、社会热点等内部信息。同时由于美国的芯片禁令,
部分中国企业和研究机构为降低大模型训练成本,可能会使用境外人工智能服务,如微软
Azure + Open AI,导致数据跨境存储。此类跨境数据流动可能导致中国敏感信息被他国掌
握,甚至被用于政治施压或战略分析,威胁中国政治安全。
〔 17〕
另一方面,对人工智能技术资本的过度依赖会消解传统国家政治安全的集中式权威。
随着人工智能的广泛应用,其背后的资本实体正持续在金融、医疗、政务等关键领域扩大
3 6 · ·

