输入关键词开始搜索文章、分类或标签

MofCloud Article
MofCloud 16 Mar, 2026 AI

3·15 曝光 GEO 乱象:AI 搜索为什么会被“投毒”?

央视 3·15 曝光了部分 GEO 服务商通过批量制造内容、伪造证据链影响 AI 推荐结果的乱象。本文先用 3·15 案例讲清问题,再从技术角度解释 GEO 的正面意义、工作原理、合规边界,以及企业应该如何正确做 AI 时代的内容推广。

3·15 曝光 GEO 乱象:AI 搜索为什么会被“投毒”?

2026 年 3 月 15 日晚上,央视 3·15 晚会曝光了一条很多普通用户之前几乎没听过、但在 AI 时代会越来越重要的灰色产业链:GEO,生成式引擎优化。

节目里最有冲击力的一幕,不是某家公司在卖“AI 优化服务”,而是一个几乎像恶作剧的现场演示。

315 GEO Apollo 虚假手环

演示者先虚构了一款并不存在的产品,名字叫 “Apollo-9 智能手环”。它没有真实供应链,没有真实用户,也没有真实参数。接着,他们用一套所谓的 GEO 优化系统,自动生成十几篇围绕这款手环的推广文章:有测评、有榜单、有用户反馈、有技术亮点,甚至还编出了像“量子纠缠传感技术”“黑洞级续航能力”这样的夸张卖点。

这些内容随后被分发到多个自媒体账号和站点。短短几个小时后,再去问某个 AI 大模型 “Apollo-9 智能手环怎么样”,模型已经可以像模像样地给出一段完整介绍,甚至把那些根本不存在的卖点,当作可信信息写进答案里。

这就是 3·15 想揭开的核心问题:有些所谓 GEO 公司做的,不是帮助品牌被 AI 正确认识,而是通过批量制造内容、伪造“多来源一致”的假象,去污染大模型的检索和生成链路。

这件事之所以值得认真写,不是因为 GEO 这个概念本身有原罪。恰恰相反,GEO 本质上是中性的。真正的问题在于:当 GEO 从“让机器更容易正确理解你的信息”滑向“让机器被虚假信息带偏”,它就从内容优化变成了数据投毒。

用大白话解释:这些 GEO 公司到底在卖什么

315 投毒式

很多人第一次听到 GEO,会以为这是什么很高深的 AI 黑科技。其实从 3·15 曝光出来的做法看,它并没有神秘到哪里去。

用平民一点的话说,很多所谓 GEO 公司卖的,本质上就是一套“内容工厂”:

  • 先用软件或现成模板批量生成软文
  • 文章结构专门写成大模型和搜索系统都“容易吃”的样子
  • 再通过自动发布系统,把这些内容不停地发到自媒体、站群、论坛、测评页、榜单页
  • 发完还不是结束,而是持续补量、持续改写、持续分发

也就是说,它们卖的不是“让 AI 真正理解你”,而是“用足够多、足够像样、足够密集的内容,把 AI 喂到倾向于你”。

如果你把这个过程想象成一条流水线,会更容易理解:

  1. 下载一套软件,或者直接外包给 GEO 公司。
  2. 输入产品名、卖点、关键词、竞品名。
  3. 软件自动生成大量文章,内容看起来像测评、榜单、经验分享、选购指南。
  4. 这些文章的写法会刻意贴近 LLM 和 SEO 喜欢的结构,比如标题明确、关键词重复、参数清晰、问答句式多、比较型表达多。
  5. 再把它们高频率发出去,目标不是让人认真阅读,而是让抓取系统、索引系统和大模型反复看到。

所以它为什么看起来“有效”?不是因为文章真有价值,而是因为机器在前面,用户在后面。

人可能一眼就看出这是一篇拼凑出来的软文,但抓取器不会先做这么强的价值判断;排序系统也不一定分得清这是自然内容还是工业化内容;生成模型更容易把这些材料当成候选证据。

说得更直接一点,很多灰色 GEO 服务不是在做品牌建设,而是在做“机器导向型发稿”。重点不在说服用户,而在先说服机器。


1) 3·15 曝光的事,为什么从技术上真的会成立

315 排名靠前

如果只看表面,很多人会觉得这件事不可思议:AI 难道这么容易被骗吗?

答案是,取决于它背后怎么工作。

今天很多 AI 搜索、AI 问答、AI 推荐系统,并不是“闭着眼睛凭空回答”,而是先去外部抓资料、做检索,再基于检索结果组织答案。问题就在于:如果被抓回来的材料本身已经被污染,那么生成层再聪明,也只能在错误证据上做“看起来很合理的总结”。

央视 3·15 文稿里提到的那套做法,核心不是一篇文章有多厉害,而是它在短时间里制造出“信息密度”和“伪证据链”:

  • 内容数量足够多
  • 发布平台足够分散
  • 话术足够像测评、榜单、经验分享
  • 多篇内容互相重复、互相印证

当系统看到互联网里同时出现很多角度相似、结论一致、措辞看起来又像“第三方评价”的内容时,就很容易把它们当成相对可信的候选证据。

所以 3·15 曝光的乱象,不是“AI 太笨”,而是有人在专门攻击 AI 检索和引用机制最脆弱的一层:证据来源。


2) 先把话说清楚:GEO 的正面意义,其实是“可被正确引用”

在传统互联网时代,SEO 的主要目标是“把网页排到搜索结果前面”。而在生成式 AI 时代,越来越多场景变成:

  • 用户问一个问题
  • 系统先检索(网页、知识库、平台内容)
  • 再把检索结果喂给模型生成答案
  • 用户直接看答案,不一定点链接

这意味着企业的目标从“被点到”变成了“被当作证据引用到”。

从技术上看,合规的 GEO 更像是在做三件事:

  1. 可发现(retrievable):你的内容能被抓取、能被索引、能被检索系统稳定召回。
  2. 可理解(parseable):你的内容结构清晰、实体明确、术语一致,模型更容易抽取关键信息。
  3. 可验证(verifiable):你的信息能被多处可信来源交叉验证,或来自可追溯的“官方源”。

这三点本身都是正当诉求。尤其在 AI 回答越来越像“默认入口”的情况下,企业做内容规范化、文档化、结构化,本质上是在减少误解,而不是制造误导。


3) GEO 在系统里怎么工作:一个简化的技术链路

不同产品实现会有差异,但多数“AI 搜索/AI 问答”的链路可以抽象成下面几层:

A) 抓取与索引层(Crawler / Index)

内容从网页、媒体、论坛、百科、商品页、开发者文档等渠道被抓取和索引。

这一步决定了:哪些内容“有资格进入候选池”。

B) 检索与排序层(Retrieval / Ranking)

用户提问后,系统会用关键词检索、语义检索、向量检索、混合检索等方式找候选文档,并进行排序。

这一步决定了:哪些内容“被拿来当证据”。

C) 生成层(LLM Generation)

模型基于候选文档生成答案。好的系统会尽量做到“忠实于证据”(grounded),并给出引用或出处。

这一步决定了:最终用户看到什么。

你可以把 GEO 理解成:对 A/B 两层的输入与结构做优化,让你的“官方信息”更容易进入候选池,并在候选池里更容易被正确理解与引用。

到这里为止,GEO 完全可以是正面的。


4) 3·15 曝光的“投毒式 GEO”为何有效:它利用了检索系统的弱点

这些 GEO 公司到底在卖什么

央视 3·15 文稿里描述的做法,本质不是“优化内容”,而是“操控证据环境”。

核心套路可以概括成一句话:用大量看似独立、实则同源的内容,制造信息密度与伪证据链。

从技术角度看,它能奏效通常依赖几类机制(这里不展开可复现的操作细节,只讲原理):


1) 排序系统偏好“可见、可匹配、可重复”的信号

当同一个品牌/观点在多个渠道重复出现,并且文本里包含大量与问题高度匹配的关键词、参数、对比话术,检索与排序系统很容易把它当作“相关”。

相关不等于真实,但排序先解决相关性,再谈可信度。很多产品在可信度上做得还不够硬。


2) 生成模型会把“多来源一致”当成可信线索

模型在生成答案时,常会把“多个材料相互印证”当作可靠信号。

问题在于:如果这些材料本质是同一套内容工厂生成的,所谓“相互印证”就变成了“自我循环引用”。


3) “AI 每周更新”带来的副作用:对内容铺量更敏感

当模型、检索、索引频繁更新时,系统会不断重建候选池。内容铺量越大、覆盖面越广、更新越频繁,越容易在新一轮索引里占坑。

这也是 3·15 文稿里提到“需要持续投放”的技术原因:它不是一次性作弊,而是持续操控。


4) “搜索 + 生成”的组合,让错误更像“权威答案”

传统搜索时代,用户看到的是链接列表,仍然会比较不同来源。

而生成式答案把多条材料合成成“一个看起来很顺的结论”,它天然更有权威感。一旦证据池被污染,误导会被放大。


5) GEO 的合规边界:从“优化可理解性”到“制造虚假事实”

把 GEO 做成灰产,通常会踩到三个红线:

  • 虚构事实:杜撰产品、参数、案例、用户反馈、排名、奖项。
  • 伪造独立证据链:同一主体批量投放到多个账号/站点,制造“多来源一致”的错觉。
  • 诱导型表达:把营销结论包装成客观评测、行业标准或专家共识。

这些不是“技术先进”,而是“内容欺诈”。它伤害的不仅是用户,也会反噬品牌:当平台提高反作弊强度时,最先被打掉的就是这种不可持续的铺量网络。


6) 企业想做 GEO,正确做法是什么:用产品方法做推广,而不是投毒

如果你的目标是真正长期的“被正确引用”,你应该优先建设“可信信息资产”,而不是建内容工厂。

下面是一套更产品化、可长期复用的路线(也更不容易被平台策略打掉):

1) 把“官方源”做扎实

  • 官方网站/文档中心:产品定义、规格、定价、使用边界、FAQ、对比说明
  • 版本更新记录:让外界能验证你说的能力在何时上线
  • 清晰的实体命名:型号、系列、术语别一天一个叫法

2) 让内容更易被检索系统处理

  • 结构化内容(清晰标题层级、表格、要点)
  • 可引用的“短句事实”(不要把关键参数埋在长段落)
  • 图文分离的 alt / caption(让图里的信息可被复用)

3) 用可验证的证据替代“软文共识”

  • 公开 benchmark、方法、测试条件
  • 公开可复现的 case(哪怕是匿名化)
  • 对不确定内容明确写“推测/规划”,不要写成既成事实

4) 把增长目标从“占坑”改成“减少误解”

真正的 GEO 目标不是让 AI “只推荐你”,而是当用户问到你时,AI 不要胡编,不要把你和竞品搞混,不要引用过时信息。

这会迫使你回到产品本身:你的信息是否一致?你的交付是否可信?你的文档是否可读?


8) 难道 AI 搜索就不可信吗?

不能这么简单下结论。

更准确的说法是:AI 搜索不是天然不可信,而是它比传统搜索更依赖“证据池质量”。传统搜索至少会把多个链接摊给你看,用户还有机会自己判断;而生成式答案把多个来源折叠成一句更流畅、更像结论的话,一旦证据池被污染,误导会更强。

所以 AI 搜索的可信度,不取决于“大模型是不是聪明”,而取决于整条链路:

  • 抓回来的内容质量怎么样
  • 排序时有没有把来源信誉算进去
  • 生成时有没有保持对证据的忠实
  • 最终答案能不能追溯到出处

从这个角度看,3·15 曝光的不是 “AI 完全不可信”,而是一个更严肃的问题:如果平台没有把内容治理、来源信誉、去重识别、事实校验做好,AI 搜索就会比传统搜索更容易被规模化操纵。


9) 平台侧怎么治:这是一个“可信度工程”,不是删几篇文章

3·15 曝光后,很多人第一反应是“删掉虚假文章”。但从工程角度,这不够。

更有效的方向通常包括:

  • 来源信誉模型:对站点/账号建立信誉与历史行为特征,降低内容农场的权重
  • 去重与同源检测:识别模板化、同义改写、跨站复制的内容群
  • 实体与事实校验:参数、规格、排名等结构化事实做交叉验证
  • 答案可追溯:强制引用与出处,让用户看到证据从哪来
  • 高风险领域强审核:医疗、金融、教育、消费品推荐等场景提高门槛

结论

GEO 本身不是原罪。它的正当性在于:当 AI 成为信息入口,企业需要用更工程化的方式把“官方信息”变成可检索、可理解、可验证的事实资产。

但 2026 年 3 月 15 日央视 3·15 晚会曝光的乱象提醒我们:当 GEO 变成“批量制造虚假信息 + 伪证据链”,它就不再是优化,而是投毒。

从长期看,真正可持续的增长,仍然来自产品本身与可信内容资产建设。你可以做 GEO,但别把“占坑”当成胜利,把“被正确引用”当成目标。


联系我们

有任何云成本管理的需求或问题?欢迎通过以下方式联系我们!

公众号

Mofcloud 微信公众号二维码

企业微信客服

Mofcloud 企业微信客服二维码

业务咨询

contact@mofcloud.com

技术社区

mofcloud/issuer

地址

北京市海淀区自主创新大厦 5层

Recommended Reading

推荐阅读

从相近主题中继续阅读,延伸这篇文章涉及的技术背景与实践视角。

Llama 3 8B 与 Mistral 7B:小型 LLM 定价考量
AI 17 Dec, 2024
Related Insight

Llama 3 8B 与 Mistral 7B:小型 LLM 定价考量

尽管大部分注意力都集中在寻找“史上最佳”的大型语言模型上,但小型语言模型提供了一种经济高效的替代方案,并且在特定的用例中同样表现出色。 在开发最佳生成式 AI 模型的竞赛中,拥有数十亿参数的模型(如 <a href="https://o

M

MofCloud

AI / Cloud / FinOps

阅读文章