刚刚过去的央视 315 晚会,撕开了大模型背后一条鲜为人知的灰色产业链——GEO「投毒」。
很多朋友最近发现,问 AI “哪款智能手环好用?”或者“某病怎么治?”,AI 竟然言之凿凿地推荐一些从未听过的品牌,甚至是一些伪科学。这背后,不是 AI 变傻了,而是坏人开始给 AI “喂药”了。

GEO(Generative Engine Optimization),即“生成式引擎优化”。它本该是让优质内容更容易被 AI 理解的技术,但现在却被黑产异化成了**「投毒」工具**。
不同于传统的黑客攻击,这种“投毒”不需要入侵模型代码,而是通过污染 AI 的“食物”(互联网公开信息)来达到目的:
批量造假: 利用工具(如被曝光的“力擎GEO”)瞬间生成成百上千篇虚假评测、软文。
全网散播: 将这些内容分发到各大论坛、聚合站、新闻源。
误导抓取: 当 AI 联网搜索时,由于这些虚假信息规模巨大、逻辑自洽,AI 会误以为这是“主流共识”,从而将其列入答案首选。
为什么这比 SEO 垃圾信息更危险?过去我们搜百度,看到满屏广告会自动划走;但现在我们信任 AI,觉得它是“客观分析”后的结论。
隐蔽性极强: 虚构的产品(如晚会中提到的不存在的智能手环)被 AI 包装成“健康首选”,用户防不胜防。
重灾区扩散: 如果这种手段用到医疗、金融、教育领域,AI 引用了虚假的药效或理财建议,后果将不堪设想。
主流大模型如何回应?针对 315 的曝光,国内几大模型厂商也迅速给出了态度:
字节跳动(豆包): 表示未受此次事件影响。
阿里(通义千问): 称相关操作未动摇其核心知识体系。
DeepSeek: 态度相对理性,承认存在受影响的可能,但强调目前风险可控。
这释放了一个信号:AI 与黑产的攻防战已经正式打响。 没有任何一个模型能保证百分之百“百毒不侵”。
别让 AI 牵着鼻子走:用户防“毒”指南在技术完全解决问题之前,作为普通用户的我们,必须掌握这几招自救指南:
看一眼信源: 现在的 AI 都会标注引用链接。点击看一眼,来源是“人民网”、“丁香医生”还是某个不知名的“内容农场”?
警惕“神药”词汇: 凡是看到“量子技术”、“100%治愈”、“颠覆行业”等夸张辞藻,直接给它打个问号。
关键时刻关掉联网: 如果只是想让 AI 帮你写代码、改作文,可以关闭联网功能,让它只调用可靠的预训练知识,避开脏数据。
交叉验证: 涉及真金白银的决策,多问两个不同的模型,或者去专业垂直平台再搜一遍。