Page 39 - 《党政研究》2025年第6期
P. 39

人诉求和参与政治活动的平台。但同时也为非理性用户创造了扰乱政党政治既有秩序和公
             共舆论环境的机会 ,并可能成为 “好事者”激化社会极端情绪、破坏社会稳定乃至动
                                 〔 23〕
             摇国家执政安全的利器。此外,海量数据膨胀与指数级信息增长带来全新挑战,使得人工
             智能逐渐承担起部分把关职能,算法设计主体或技术官僚极易将隐形政治偏好经由 “算法
             黑箱”嵌入部分环节,削弱人工智能在把关过程中的中立性与客观性,从而慢性销蚀公共
             决策自主性,动摇智能治理的合法性根基。
                  过分迷恋人工智能会在一定程度上降低党组织与社会的直接关联,导致政党与民众
             “疏离”。一方面,人工智能在促进党建工作智慧化水平不断提升、基础性重复性工作效
             率显著提高的同时,一些地方基层党组织与党务工作者容易倾向于以线上 “指尖操作”
             代替传统党建工作中 “人与人的对接” “心与心的交流”。更有甚者,将智慧党建党务工
             作简单地进行模块划分与流程固化,忽视具体问题具体分析。例如,部分基层干部将人工
             智能的应用异化为文字游戏,在撰写总结材料时大肆堆砌 “场景赋能”“模式迭代”等时
             代新词,从而陷入 “概念空转”的怪圈。 智能生成的内容看似符合智能党建的 “技术审
                                                        〔 24〕
             美”,实则空洞无物、缺乏人文温度,这既模糊了基层党组织建设中亟待破解的真实痛点,
             也容易阻塞党群对话的情感通道,最终可能诱发 “技术性疏离”———群众对形式上的智
             慧党建工作产生审美疲劳与抵触心理。 另一方面,在智能采集民意过程中,数字弱势群
                                                     〔 25〕
             体由于 “不能用、不敢用、不会用”智能技术,导致党组织及数据机构难以直接收集到
             原始数据。鉴于这一群体不契合市场的逐利逻辑,人工智能企业实体与平台也 “有意”
             忽视其内在诉求。 若过分追求 “智慧与技术”,党组织与数字弱势群体的数字化交往,
                                〔 26〕
             或将存在党群疏离风险。
                                       〔 27〕
                  (三)人工智能的失范应用容易侵蚀国家政治制度认同
                  国家政治制度安全是国家政治安全的又一核心要素,主要表现为政治制度的有效性、
             权威性 、公平正义性、认同性等方面。随着人工智能作为新型权力要素深度嵌入政治制
                     〔 28〕
             度的运作过程之中,它也在认同性和数字公平正义等维度对政治制度安全提出更高要求。
                  政治制度对人工智能造成的潜在风险回应不足,容易促使政治制度的效力分解。人工
             智能技术的应用落地正蓬勃兴起,其快速迭代与大规模应用给现有政治制度带来了严峻挑
             战。然而,法律规制与技术监管通常滞后于技术发展的步伐,由此产生的制度时差效应会
             进一步加剧政治制度调整与人工智能风险防控之间的调控错位。2023 年国家网信办、工
             信部等多部门出台的 《生成式人工智能服务管理暂行办法》在基本原则、技术治理框架、
             服务规范体系及监管机制设计等层面,为人工智能时代的政治制度安全治理构筑了制度基
             础。 2024 年国家工信部等四部门联合印发 《国家人工智能产业综合标准化体系建设指南
                 〔 29〕
             ( 2024 版)》从总体要求、建设思路、重点方向及保障措施层面,系统规划了人工智能产
             业建设路径。 但它们均在具体制度安排层面仍显宽泛,未对政治制度安全治理工作的责
                           〔 30〕
             任划分、治理路径、评估标准等关键环节作出细化规定,对于涉及政治安全的算法推荐、
             深度伪造内容的具体责任划分等问题也缺乏具体措施。在国际层面,我国通过 《全球人工
             智能治理倡议》《人工智能能力建设普惠计划》等倡议计划,提出在全球人工智能治理领
             域的伦理原则与路线图。但诸如现有治理机制协调、技术规范协调、数据跨境监管等具体
             实施细则仍未完全落地,致使人工智能在国家政治制度安全风险识别、内容溯源阻断、主
             体合规问责等关键环节存在治理盲区,对人工智能在数据跨境中生成的政治制度安全风险
             的监管仍有明显缺口,或将引发民众对政治制度运行效能与风险应对能力的信任损耗。
                  人工智能会加剧社会资源分配和政治资源分配的不平等 ,消解政治制度的公平正义
                                                                            〔 31〕
             性。在人工智能时代,大数据和算法为快速完成复杂的信息处理任务提供技术支持,使政
             治制度的运行更为高效灵活。但高效并非民主政治制度追求的首要目标,过分强调效率会
             将公平正义排斥在外。智能机器具有对数字弱势群体天然的歧视性质与剥削属性,其目前
             的运行机制正自动将数字弱势群体隔绝在外,由此形成的智能鸿沟不仅会使数字弱势群体
             错失经济发展的智能机遇,也会剥夺其表达民主诉求的智能渠道,加剧智能时代事实上的
             不平等、不公正。 然而,智能机器并非完全排斥所有民众,而是将政治权力由公共协商
                                〔 32〕
             领域转移到技术专家共同体中,专家与技术官员由此获得 “智能先知”的权威身份。这

                 3 8 ·  ·
   34   35   36   37   38   39   40   41   42   43   44