AI 备受质疑:调查 ChatGPT 在隐秘信息传递与虚假信息传播中的使用
互联网一直都很“怪”。但最近它多了一项新技能:它能用一套完美的语法、像模像样地看着你——然后一本正经地胡说八道。
如今围绕 ChatGPT 和其他生成式 AI 工具 的讨论,已经从“哇,它能写邮件”变成了“等等……到底是谁在用它?用来干什么?”在 2026 年 2 月 25–26 日,关于 OpenAI 最新反滥用与安全干预工作的报道,再次把这把火烧旺:恋爱诈骗、假律师事务所、以及试图进行政治抹黑——这些事件据称都在一定程度上借助了 AI 生成文本与运营支持。
这不是“机器人要接管世界”的故事。这是“人类在做典型的人类行为——欺骗、影响、操纵——只不过使用了更强的工具”的故事。也正因此更令人不安,因为它更真实。
下面这篇文章会用更贴近现实、可读性强的方式,梳理像 ChatGPT 这样的工具如何被卷入 隐秘信息传递 与 虚假信息(disinformation)行动:它在实践中到底是什么样、有哪些常见套路、防御手段如何发展,以及当合成文本比批判性思维跑得更快时,我们如何维持一个仍然可共享的公共现实。
新战场并非“AI 对人类”,而是“注意力对真相”
虚假信息不需要说服所有人。它只需要在足够多人身上制造足够长时间的 困惑、怀疑与分裂,就能形成噪音、犬儒与社会撕裂。而现代注意力经济,几乎就是把喷气发动机对准了我们的前额叶皮层。
生成式 AI 改变的,是这种问题的规模。它未必能写出“催眠式神宣传”,但它能把以下事情变得极其廉价:
同一叙事的无穷变体
多语言、多地区的本地化传播
评论区里“像真人一样”的互动回复
模仿真实社群语气的内容生产
OpenAI 自己也强调,影响行动往往是 AI 与传统基础设施的组合:假账号、网站、社交平台等;AI 更像是加速器,用于内容生成、迭代与优化,而不是独立完成整场行动。
所以真正的风险不是“某一条 AI 帖子就能洗脑你”。更可怕的是 工业化说服:成千上万条内容、可信的人设、持续的互动——日复一日地投喂,直到谎言变得“熟悉”,而熟悉感经常被大脑误判为真实。
人类就是会这样。大脑追求效率,有时候效率会变成悲剧。
“隐秘信息传递”到底是什么(通常并不需要间谍电影)
当人们听到“隐秘信息传递(covert messaging)”,往往会想到暗号、死信箱,或者反派边撸猫边把摩斯密码藏进表情包。现实没那么戏剧化,反而更“烦人地实用”。
所谓隐秘信息传递,一般指 以隐藏意图、来源、协同或真实含义的方式进行沟通,让旁观者更难识别背后的组织性与目的。常见形式包括:
1)隐藏式协同
多个账号看似互不相关,但实际上被统一协调:固定时间发帖、推同一主题、以类似语气回击批评者。
2)可否认叙事
文本写得极其“聪明”:暗示而不明说,既能引导认知,又尽量避开可被直接核查或追责的断言。
3)文本隐写(Steganography)
“隐写术”就是把信息藏在信息里。研究者确实探索过 基于大语言模型的隐写:通过微妙的措辞选择,在看似正常的文本中编码额外信息。这并非科幻,而是仍在发展的研究方向,已有论文提出可用于隐秘通信的框架。
但得强调:大多数现实世界的隐秘行动并不需要高级隐写术。它们更依赖 协调、规模与分发——那些无聊却有效的东西。
ChatGPT 如何参与虚假信息行动:它更像“加速器”
关键点在这里:生成式 AI 很少独自组成整台机器。它更像是 助燃剂。
结合公开报道与 OpenAI 的反滥用披露,常见的滥用模式包括:
编写与润色宣传叙事
攻击者可能试图生成帖子、要点、所谓“报告”,用来推动特定叙事。OpenAI 过去也披露过对隐蔽影响行动的打击与其典型手法。
翻译与本地化
不再是一条生硬的英语帖子,而是几十个版本,贴合地区语言习惯、文化语境、热点话题,让行动更像“真群众”。
人设脚本化
AI 可以帮助写出“单亲妈妈”“失望的退伍军人”“关心社会的学生”等不同身份语气。也正因此,线上真实性 正在被煮成一锅汤。
评论区灌水与互动放大
即便文本质量一般,只要数量够大,就能压垮审核系统、淹没真实讨论。数量本身就能成为武器。
诈骗与运营支持
近期报道提到 OpenAI 的打击行动包含 恋爱诈骗与冒充式欺诈,而 AI 可以为诈骗对话、脚本、甚至“专业文件”提供生成与改写支持。
这些并不需要超级智能。需要的是 速度、规模、低成本——而生成式 AI 恰好擅长这三件事。
2026 年 2 月:一个及时的案例信号
在 2026 年 2 月 25–26 日,多家媒体总结了 OpenAI 的一份新威胁报告,描述了恶意行为者试图使用 ChatGPT 进行诈骗与影响行动的案例,包括报道中提到的 恋爱诈骗、假法律服务、以及涉及日本政治领导层的抹黑企图。
这里有两点非常关键:
1)这些行动并非“纯 AI”。 它们结合了平台、假账号与其他工具;AI 主要用于生成、润色与迭代内容。
2)应对不是只靠喊口号。 报告包含了具体的调查与“打断行动”(例如封禁相关账号),并通过披露来提升透明度与集体防御能力。
这代表了一个转折:我们正在从“AI 未来可能被滥用”走向“现在就有模式、案例与对抗措施”。
虚假信息为何有效:它利用的是“正常的人类系统”
虚假信息强大,不是因为人们愚蠢,而是因为人们 是人类。
它利用:
认知负荷:我们不可能核查每一条信息
社会认同:“大家都在说”会让人更信
身份保护:迎合群体认同的信息更容易被接受
愤怒循环:怒火传播速度往往快过细节
生成式 AI 可以批量生产能触发这些机制的内容——精心、反复、规模化。
更阴险的一点是:虚假信息不只传播错误信念,还制造 认知疲劳——让人觉得真相不可知、一切皆宣传。最终,人们会从公共现实中退出,不再参与,也不再关心。
更隐蔽的变化:虚假信息正在服务化、产业化
过去运行一场行动,需要写手、翻译、时间与资金。现在,小团队能做更多、更快,因为 AI 能提供:
无限草稿
语气控制(“更愤怒”“更同情”“更正式”)
翻译与文化适配
追热点的快速响应
所以“信息战”这个词听起来戏剧化,但它其实越来越准确。
最可怕的不是谎言传播,而是谎言可以像营销漏斗一样被持续优化:A/B 测试叙事,直到找到最能传播、最能撕裂的版本。
“不能检测 AI 文本吗?”——有时可以,但并不可靠
很多人想要一个魔法筛子:这条内容是 AI 写的。现实是,检测很难做到在全网可靠:
人类会编辑 AI 输出
AI 输出会被二次改写
人类也会写“通用网络腔”,让检测更混乱
攻击者可以刻意变换风格与结构
因此更有效的往往是 行为与网络层面的识别:
协同发帖节奏
共用基础设施与链接
同步的互动爆发
叙事模板跨账号重复
也就是说:抓住的是 行动,不是某一句话。
平台、记者与研究者在做什么
最有效的防御不像一面巨墙,更像多个系统协作的防火网:
威胁情报与打断行动
OpenAI 的披露强调了调查与打断滥用网络的措施,包括封禁与清理相关账号群。
内容溯源与真实性技术
越来越多机构推动内容溯源:用加密或元数据方式证明来源与编辑痕迹(不完美,但在高风险场景很有价值)。
增加摩擦与验证
对“像机器人”的账号施加额外验证与限制,尤其在选举、危机事件期间。
不侮辱人的媒介素养
有效的媒介素养不是“别傻”。而是教人识别操纵机制:情绪触发、伪权威信号、以及“过于完美的叙事结构”。
你今天就能做的事(不需要变成偏执侦探)
不需要核查互联网的每一个原子,但可以培养几种能“规模化”的习惯:
1)情绪飙升时先刹车
让你瞬间爆怒或狂喜的内容,大概率是在按按钮。停一下。
2)找原始来源
截图不是来源。“朋友转发的”也不是来源。
3)观察协同气味
同样的句式、同样的标签、同样的链接、同样的节奏——那是行动的味道。
4)对过度确定保持怀疑
现实复杂,宣传很自信。
5)依赖透明的核查渠道
不是“某个大 V”,而是有纠错机制、引用规范与透明流程的机构与记者。
政策与责任:该由谁承担?
OpenAI 的公开使用政策明确禁止生成或推广虚假信息等欺骗性行为,并强调遵守安全与防滥用机制。
但政策本身不够。真正的生态包括:
模型提供方(政策 + 执行 + 透明度)
平台(分发控制 + 审核 + 身份验证)
政府(监管与监督,理想情况下避免滥用审查)
公民社会(研究者、媒体、监督组织)
用户(是的,我们也在链条里)
这是一种集体行动难题:每个人都想要干净的信息环境,但没人想独自承担全部成本。而攻击者高度有动力,并且不在乎伦理。
这就是所谓的不对称。
未来走向:三种现实版本(都不会无聊)
未来 1:可信网络扩大
更多新闻与高风险内容会采用签名、溯源与验证。日常内容仍混乱,但可信层会更厚。
未来 2:虚假信息更个性化
行动从“大水漫灌”转向精准社群叙事。AI 会让这种微定向更便宜。
未来 3:社会形成“认知卫生”文化
人们开始像对待食品安全那样对待信息:不完美,但有规范——“洗一洗来源”“煮熟观点”“别生吃谣言”。
现实可能是三者混合,再加一些随机混沌调味。
结语:AI 不是反派,但它确实是电动工具
ChatGPT 没发明欺骗。它只是让欺骗更容易规模化——尤其当它与奖励“互动量”的分发系统结合时。
值得期待的是,同样的技术也可以用于防御:协助识别协同行动、帮助研究者筛选信息、改进事实核查流程、以更快速度提升公众理解。
真正的冲突不是“AI 对真相”。是 激励机制对真相。
而激励机制,往往像一群滑不留手的小妖精。
SEO 关键词段落(单段,优化版)
AI 虚假信息、ChatGPT 滥用、隐秘信息传递、错误信息传播、信息战、AI 安全、LLM 安全、生成式 AI 风险、协同行为识别、网络操纵、社会工程、舆论影响行动、网络威胁、威胁情报、开源情报 OSINT、数字取证、选举虚假信息、政治宣传、假新闻检测、内容真实性、媒体素养、事实核查工具、AI 治理、平台内容治理、诈骗预防、恋爱诈骗话术、冒充欺诈、聊天机器人安全、OpenAI 2026 威胁报告、AI 政策合规、内容审核策略、合成文本检测、文本隐写术、语言隐写、AI 透明度、信任与安全、算法放大效应、虚假信息防御、网络信任危机。