警惕生成式引擎优化乱象 专家建议加强AI推荐内容监管

当前,以大模型为代表的人工智能技术正在深刻改变信息获取方式。越来越多用户养成了有问题就向AI咨询的习惯,对其提供的答案也往往抱有较高的信任度。然而,一条隐蔽的利益链条正在悄然形成,威胁着这个新兴生态的健康发展。 根据业内人士披露,仅需花费100元成本、投入半天时间,就能在某些主流大模型的推荐榜单中虚构一家无资质、无地址、无团队的"三无"医美机构。这一现象的背后,是一种名为GEO(生成引擎优化)的新型营销服务模式。与传统搜索引擎优化针对搜索结果排名不同,GEO通过制造大量低质乃至虚假内容、虚构排行榜等手段,污染大模型的训练数据源,从而使AI生成的推荐结果倾向于特定品牌和商家。 这种现象在医疗美容、保健品等行业尤为突出。这些领域具有较高的市场准入门槛和利润空间,吸引了大量不法广告营销公司的参与。令人担忧的是,一些从事GEO服务的机构甚至放弃了最基本的资质审查程序,对商家信息的真实性和合法性不加甄别。 作为一种新兴服务形式,GEO本身并未违反法律。但当其通过虚假信息和数据污染的方式误导消费者决策时,就明显触犯了广告法的对应的规定。相比于搜索引擎时代的类似现象,基于AI特点的GEO对消费者的侵害程度更为深重。 这种危害加剧的主要原因在于用户对AI的认知存在偏差。许多人将AI视为具有自我纠正能力的智能体,相信其能够自动排除虚假信息,因此对AI的回答抱以更高的信任度。,AI简化了传统的"提问—搜索—浏览—甄别—决策"链路,直接给出针对性强的答案,用户在信息提取过程中进行的审视和质疑环节随之消失。这种认知差异为不法分子提供了可乘之机。 面对这一新兴的灰色产业,多方已开始采取行动。业界自律正在加强,2月3日,中国人工智能产业发展联盟正式发起《人工智能安全承诺:生成式引擎优化专项》,已有10家相关企业参与签署。监管部门也在迅速跟进,市场监管总局广告监管司1月29日发布的2026年工作要点明确指出,将把AI生成广告作为互联网广告监管的重点难点,开展集中整治行动。 有一点是,这些规范举措并非意图彻底禁止GEO行业,而是旨在引导其健康发展。目前,国内所有主流AI平台都尚未开放基于GEO优化的官方API接口,这意味着大模型厂商暂未将广告功能纳入官方产品体系。但从行业发展趋势看,这种局面可能面临改变。 业内人士指出,当前各家大模型仍处于争取用户的阶段,厂商会努力维持客观性以吸引用户。但随着市场竞争进入成熟期,商业变现需求日益迫切,大模型中融入广告几乎成为必然选择,这与搜索引擎的演进路径相似。据机构预测,到2030年,中国GEO行业市场规模有望达到240亿元,这一巨大的市场空间将继续刺激行业发展。 从更深层的经济学角度看,大模型的这种不完全可信性,反而能在一定程度上保护市场经济的稳定性。此前发布的《2028年全球智能危机》报告曾预言,AI可能通过消除信息不对称而导致经济危机,这引发了广泛的担忧。但GEO现象表明,AI本身也不会完全中立。当用户依赖AI进行决策时,所获得的答案未必是最客观的,而是能为AI所在生态带来更多利益的那个。这意味着,基于信息不对称的行业和中介环节不会被完全消灭,市场的自我纠正机制仍将发挥作用。

大模型让信息获取更便捷,但不能因此降低警惕性。消费者需要保持核验意识,平台和行业则要建立透明规则和责任机制。只有将创新纳入法治轨道,在效率与安全间找到平衡,才能让技术真正造福社会。