声明:本文转载自数据与治理公众号
编者按:2025年12月20-21日,由中国计算社会科学联盟、清华大学社会科学学院、清华大学计算社会科学与国家治理实验室主办的“第七届全国计算社会科学论坛暨首届人工智能赋能社会科学学术论坛”在清华大学成功举办。哈尔滨工业大学副校长、哈工大SCIR刘挺教授发表题为《认知安全:策略与技术》的主旨演讲,从计算机科学与人工智能视角系统阐述了“认知安全”这一新兴而关键的议题,深入探讨了人工智能时代人类认知面临的结构性风险及其技术应对路径。
2025年12月20-21日,由中国计算社会科学联盟、清华大学社会科学学院、清华大学计算社会科学与国家治理实验室主办的“第七届全国计算社会科学论坛暨首届人工智能赋能社会科学学术论坛”在清华大学成功举办。来自近30所高校、科研机构和科技企业的100余位专家学者参与本次论坛。
会务组将整理专家精彩发言内容,经由嘉宾确认陆续分享,以飨读者。以下为哈尔滨工业大学副校长、教授刘挺的发言内容:

哈尔滨工业大学副校长、教授刘挺发表题为《认知安全:策略与技术》的主旨演讲,从计算机科学与人工智能视角系统阐述了“认知安全”这一新兴而关键的议题,深入探讨了人工智能时代人类认知面临的结构性风险及其技术应对路径。刘挺教授指出,随着人工智能特别是大模型技术的快速发展,人类社会正从认知智能阶段迈向预测智能与决策智能阶段。然而,在涉及公共政策、社会治理、群体行为等高度复杂的问题上,单纯依赖大模型并不能直接给出可靠决策。
他从理论层面提出,人类社会已不再仅仅处于“物质—精神”的二元结构中,而是进入“物质—精神—信息”三元并立的新阶段。信息空间凭借可复制、可传播、可计算的特性,深刻塑造着人类对现实世界的认知。现实事件一旦进入信息空间,往往会被重构、放大甚至扭曲,从而影响个体判断与群体决策。尤其在AIGC广泛介入内容生产后,信息空间与精神空间的互动达到了前所未有的强度,认知安全风险显著上升,成为比网络安全、信息安全更为深层的安全形态。
刘挺教授强调,认知安全并非发生在系统或数据层面,而是直接发生在人的大脑之中,是对人类推理模式、判断机制和价值认同的干扰与塑造。他将认知安全问题分为四个层次:人与现实之间的事实认知偏差,人与自我之间的心理与认知失衡,人与他人之间的道德冲突,以及人与群体之间的舆论认知对抗。
围绕如何理解和应对认知安全风险,刘挺教授提出了一个从“感知—决策—行动”出发的系统性框架。首先是对舆论场态势的精准感知。他认为,舆论场本质上是一个复杂的社会动力系统,具有类似力学系统的结构约束与演化规律,应更多引入力学、数学和计算模型,而非仅凭经验判断。围绕这一思路,团队在虚假信息检测、认知扭曲识别、舆论争夺点发现以及社交机器人识别等方面开展了系统研究。在事实安全层面,团队研发了面向特定领域优化的大模型系统“惊堂木”,能够对复杂信息进行多路径推理,给出真假判断及其逻辑依据;在认知层面,通过识别过度泛化、非黑即白、情绪化推理等模式,判断个体或群体是否出现认知扭曲;在舆论博弈中,能够自动分析政策议题(如延迟退休)中真正的认知争夺焦点;在技术层面,还与微博、中央广播电视总台等机构合作,识别跨平台协同运作的境外社交机器人网络,揭示舆论攻击的组织结构与传播路径。
在此基础上,刘挺教授进一步提出“辩论式决策机”的概念,强调人机协同在复杂社会决策中的价值。他指出,传统强化学习适用于规则清晰、环境封闭的场景,而社会治理决策需要融合人类经验、价值判断与机器的计算优势。通过多智能体从不同视角展开内部辩论,再与人类专家进行对等讨论,可以显著提升决策质量。相关模式已在医疗等领域得到验证,人机会诊效果优于人类专家会诊的结果。值得关注的是,刘挺教授还介绍了认知安全技术在青少年心理健康领域的应用实践。团队结合认知行为理论,研发了面向青少年的情感陪伴与认知干预系统,通过循序渐进的引导,帮助其识别并修正不合理的认知模式,在问题早期进行干预,而非简单灌输结论。
在总结中,刘挺教授指出,认知域冲突无时无刻不在发生,大模型生成内容使虚实边界更加模糊,也进一步放大了认知安全风险。认知安全的研究亟需跨学科融合,不仅要借鉴人工智能与计算科学方法,也要吸收人文社会科学关于认知、情绪、价值与制度的理论资源,甚至引入力学等自然科学思想,共同提供更坚实的理论基础。他表示,认知安全是一个前景广阔但理论基础仍显薄弱的领域,期待在多学科对话中不断深化与完善。


