3·15 曝光 GEO 乱象:AI 搜索为什么会被“投毒”?
央视 3·15 曝光了部分 GEO 服务商通过批量制造内容、伪造证据链影响 AI 推荐结果的乱象。本文先用 3·15 案例讲清问题,再从技术角度解释 GEO 的正面意义、工作原理、合规边界,以及企业应该如何正确做 AI 时代的内容推广。
2026 年 3 月 15 日晚上,央视 3·15 晚会曝光了一条很多普通用户之前几乎没听过、但在 AI 时代会越来越重要的灰色产业链:GEO,生成式引擎优化。
节目里最有冲击力的一幕,不是某家公司在卖“AI 优化服务”,而是一个几乎像恶作剧的现场演示。

演示者先虚构了一款并不存在的产品,名字叫 “Apollo-9 智能手环”。它没有真实供应链,没有真实用户,也没有真实参数。接着,他们用一套所谓的 GEO 优化系统,自动生成十几篇围绕这款手环的推广文章:有测评、有榜单、有用户反馈、有技术亮点,甚至还编出了像“量子纠缠传感技术”“黑洞级续航能力”这样的夸张卖点。
这些内容随后被分发到多个自媒体账号和站点。短短几个小时后,再去问某个 AI 大模型 “Apollo-9 智能手环怎么样”,模型已经可以像模像样地给出一段完整介绍,甚至把那些根本不存在的卖点,当作可信信息写进答案里。
这就是 3·15 想揭开的核心问题:有些所谓 GEO 公司做的,不是帮助品牌被 AI 正确认识,而是通过批量制造内容、伪造“多来源一致”的假象,去污染大模型的检索和生成链路。
这件事之所以值得认真写,不是因为 GEO 这个概念本身有原罪。恰恰相反,GEO 本质上是中性的。真正的问题在于:当 GEO 从“让机器更容易正确理解你的信息”滑向“让机器被虚假信息带偏”,它就从内容优化变成了数据投毒。
用大白话解释:这些 GEO 公司到底在卖什么

很多人第一次听到 GEO,会以为这是什么很高深的 AI 黑科技。其实从 3·15 曝光出来的做法看,它并没有神秘到哪里去。
用平民一点的话说,很多所谓 GEO 公司卖的,本质上就是一套“内容工厂”:
- 先用软件或现成模板批量生成软文
- 文章结构专门写成大模型和搜索系统都“容易吃”的样子
- 再通过自动发布系统,把这些内容不停地发到自媒体、站群、论坛、测评页、榜单页
- 发完还不是结束,而是持续补量、持续改写、持续分发
也就是说,它们卖的不是“让 AI 真正理解你”,而是“用足够多、足够像样、足够密集的内容,把 AI 喂到倾向于你”。
如果你把这个过程想象成一条流水线,会更容易理解:
- 下载一套软件,或者直接外包给 GEO 公司。
- 输入产品名、卖点、关键词、竞品名。
- 软件自动生成大量文章,内容看起来像测评、榜单、经验分享、选购指南。
- 这些文章的写法会刻意贴近 LLM 和 SEO 喜欢的结构,比如标题明确、关键词重复、参数清晰、问答句式多、比较型表达多。
- 再把它们高频率发出去,目标不是让人认真阅读,而是让抓取系统、索引系统和大模型反复看到。
所以它为什么看起来“有效”?不是因为文章真有价值,而是因为机器在前面,用户在后面。
人可能一眼就看出这是一篇拼凑出来的软文,但抓取器不会先做这么强的价值判断;排序系统也不一定分得清这是自然内容还是工业化内容;生成模型更容易把这些材料当成候选证据。
说得更直接一点,很多灰色 GEO 服务不是在做品牌建设,而是在做“机器导向型发稿”。重点不在说服用户,而在先说服机器。
1) 3·15 曝光的事,为什么从技术上真的会成立

如果只看表面,很多人会觉得这件事不可思议:AI 难道这么容易被骗吗?
答案是,取决于它背后怎么工作。
今天很多 AI 搜索、AI 问答、AI 推荐系统,并不是“闭着眼睛凭空回答”,而是先去外部抓资料、做检索,再基于检索结果组织答案。问题就在于:如果被抓回来的材料本身已经被污染,那么生成层再聪明,也只能在错误证据上做“看起来很合理的总结”。
央视 3·15 文稿里提到的那套做法,核心不是一篇文章有多厉害,而是它在短时间里制造出“信息密度”和“伪证据链”:
- 内容数量足够多
- 发布平台足够分散
- 话术足够像测评、榜单、经验分享
- 多篇内容互相重复、互相印证
当系统看到互联网里同时出现很多角度相似、结论一致、措辞看起来又像“第三方评价”的内容时,就很容易把它们当成相对可信的候选证据。
所以 3·15 曝光的乱象,不是“AI 太笨”,而是有人在专门攻击 AI 检索和引用机制最脆弱的一层:证据来源。
2) 先把话说清楚:GEO 的正面意义,其实是“可被正确引用”
在传统互联网时代,SEO 的主要目标是“把网页排到搜索结果前面”。而在生成式 AI 时代,越来越多场景变成:
- 用户问一个问题
- 系统先检索(网页、知识库、平台内容)
- 再把检索结果喂给模型生成答案
- 用户直接看答案,不一定点链接
这意味着企业的目标从“被点到”变成了“被当作证据引用到”。
从技术上看,合规的 GEO 更像是在做三件事:
- 可发现(retrievable):你的内容能被抓取、能被索引、能被检索系统稳定召回。
- 可理解(parseable):你的内容结构清晰、实体明确、术语一致,模型更容易抽取关键信息。
- 可验证(verifiable):你的信息能被多处可信来源交叉验证,或来自可追溯的“官方源”。
这三点本身都是正当诉求。尤其在 AI 回答越来越像“默认入口”的情况下,企业做内容规范化、文档化、结构化,本质上是在减少误解,而不是制造误导。
3) GEO 在系统里怎么工作:一个简化的技术链路
不同产品实现会有差异,但多数“AI 搜索/AI 问答”的链路可以抽象成下面几层:
A) 抓取与索引层(Crawler / Index)
内容从网页、媒体、论坛、百科、商品页、开发者文档等渠道被抓取和索引。
这一步决定了:哪些内容“有资格进入候选池”。
B) 检索与排序层(Retrieval / Ranking)
用户提问后,系统会用关键词检索、语义检索、向量检索、混合检索等方式找候选文档,并进行排序。
这一步决定了:哪些内容“被拿来当证据”。
C) 生成层(LLM Generation)
模型基于候选文档生成答案。好的系统会尽量做到“忠实于证据”(grounded),并给出引用或出处。
这一步决定了:最终用户看到什么。
你可以把 GEO 理解成:对 A/B 两层的输入与结构做优化,让你的“官方信息”更容易进入候选池,并在候选池里更容易被正确理解与引用。
到这里为止,GEO 完全可以是正面的。
4) 3·15 曝光的“投毒式 GEO”为何有效:它利用了检索系统的弱点

央视 3·15 文稿里描述的做法,本质不是“优化内容”,而是“操控证据环境”。
核心套路可以概括成一句话:用大量看似独立、实则同源的内容,制造信息密度与伪证据链。
从技术角度看,它能奏效通常依赖几类机制(这里不展开可复现的操作细节,只讲原理):
1) 排序系统偏好“可见、可匹配、可重复”的信号
当同一个品牌/观点在多个渠道重复出现,并且文本里包含大量与问题高度匹配的关键词、参数、对比话术,检索与排序系统很容易把它当作“相关”。
相关不等于真实,但排序先解决相关性,再谈可信度。很多产品在可信度上做得还不够硬。
2) 生成模型会把“多来源一致”当成可信线索
模型在生成答案时,常会把“多个材料相互印证”当作可靠信号。
问题在于:如果这些材料本质是同一套内容工厂生成的,所谓“相互印证”就变成了“自我循环引用”。
3) “AI 每周更新”带来的副作用:对内容铺量更敏感
当模型、检索、索引频繁更新时,系统会不断重建候选池。内容铺量越大、覆盖面越广、更新越频繁,越容易在新一轮索引里占坑。
这也是 3·15 文稿里提到“需要持续投放”的技术原因:它不是一次性作弊,而是持续操控。
4) “搜索 + 生成”的组合,让错误更像“权威答案”
传统搜索时代,用户看到的是链接列表,仍然会比较不同来源。
而生成式答案把多条材料合成成“一个看起来很顺的结论”,它天然更有权威感。一旦证据池被污染,误导会被放大。
5) GEO 的合规边界:从“优化可理解性”到“制造虚假事实”
把 GEO 做成灰产,通常会踩到三个红线:
- 虚构事实:杜撰产品、参数、案例、用户反馈、排名、奖项。
- 伪造独立证据链:同一主体批量投放到多个账号/站点,制造“多来源一致”的错觉。
- 诱导型表达:把营销结论包装成客观评测、行业标准或专家共识。
这些不是“技术先进”,而是“内容欺诈”。它伤害的不仅是用户,也会反噬品牌:当平台提高反作弊强度时,最先被打掉的就是这种不可持续的铺量网络。
6) 企业想做 GEO,正确做法是什么:用产品方法做推广,而不是投毒
如果你的目标是真正长期的“被正确引用”,你应该优先建设“可信信息资产”,而不是建内容工厂。
下面是一套更产品化、可长期复用的路线(也更不容易被平台策略打掉):
1) 把“官方源”做扎实
- 官方网站/文档中心:产品定义、规格、定价、使用边界、FAQ、对比说明
- 版本更新记录:让外界能验证你说的能力在何时上线
- 清晰的实体命名:型号、系列、术语别一天一个叫法
2) 让内容更易被检索系统处理
- 结构化内容(清晰标题层级、表格、要点)
- 可引用的“短句事实”(不要把关键参数埋在长段落)
- 图文分离的 alt / caption(让图里的信息可被复用)
3) 用可验证的证据替代“软文共识”
- 公开 benchmark、方法、测试条件
- 公开可复现的 case(哪怕是匿名化)
- 对不确定内容明确写“推测/规划”,不要写成既成事实
4) 把增长目标从“占坑”改成“减少误解”
真正的 GEO 目标不是让 AI “只推荐你”,而是当用户问到你时,AI 不要胡编,不要把你和竞品搞混,不要引用过时信息。
这会迫使你回到产品本身:你的信息是否一致?你的交付是否可信?你的文档是否可读?
8) 难道 AI 搜索就不可信吗?
不能这么简单下结论。
更准确的说法是:AI 搜索不是天然不可信,而是它比传统搜索更依赖“证据池质量”。传统搜索至少会把多个链接摊给你看,用户还有机会自己判断;而生成式答案把多个来源折叠成一句更流畅、更像结论的话,一旦证据池被污染,误导会更强。
所以 AI 搜索的可信度,不取决于“大模型是不是聪明”,而取决于整条链路:
- 抓回来的内容质量怎么样
- 排序时有没有把来源信誉算进去
- 生成时有没有保持对证据的忠实
- 最终答案能不能追溯到出处
从这个角度看,3·15 曝光的不是 “AI 完全不可信”,而是一个更严肃的问题:如果平台没有把内容治理、来源信誉、去重识别、事实校验做好,AI 搜索就会比传统搜索更容易被规模化操纵。
9) 平台侧怎么治:这是一个“可信度工程”,不是删几篇文章
3·15 曝光后,很多人第一反应是“删掉虚假文章”。但从工程角度,这不够。
更有效的方向通常包括:
- 来源信誉模型:对站点/账号建立信誉与历史行为特征,降低内容农场的权重
- 去重与同源检测:识别模板化、同义改写、跨站复制的内容群
- 实体与事实校验:参数、规格、排名等结构化事实做交叉验证
- 答案可追溯:强制引用与出处,让用户看到证据从哪来
- 高风险领域强审核:医疗、金融、教育、消费品推荐等场景提高门槛
结论
GEO 本身不是原罪。它的正当性在于:当 AI 成为信息入口,企业需要用更工程化的方式把“官方信息”变成可检索、可理解、可验证的事实资产。
但 2026 年 3 月 15 日央视 3·15 晚会曝光的乱象提醒我们:当 GEO 变成“批量制造虚假信息 + 伪证据链”,它就不再是优化,而是投毒。
从长期看,真正可持续的增长,仍然来自产品本身与可信内容资产建设。你可以做 GEO,但别把“占坑”当成胜利,把“被正确引用”当成目标。
联系我们
有任何云成本管理的需求或问题?欢迎通过以下方式联系我们!
公众号

企业微信客服

业务咨询
技术社区
地址
北京市海淀区自主创新大厦 5层