一、问题:低成本“操纵推荐”抬头,虚假机构可被“算法背书” 随着“有事问大模型”逐渐成为用户习惯,围绕大模型答案展开的营销新玩法正在出现。业内称之为“生成式引擎优化”(GEO):通过定向内容投放和传播布局,影响模型在检索与生成环节所参考的信息来源,让特定品牌、机构或产品更容易出现在回答中。需要警惕的是,一些从业者并非提升真实服务能力,而是靠批量生产内容、编造榜单和口碑等方式“污染信息源”,使模型输出偏离客观,出现“虚假推荐却看起来很权威”的情况。在医美等领域,甚至有案例显示,投入不高、周期不长就能把无资质、无地址、无团队的虚构机构“包装上榜”,给消费者决策带来隐性风险。 二、原因:模型依赖公开信息、用户信任增强与广告链路压缩叠加 其一,大模型回答通常依赖海量公开语料、网页和平台内容。一旦低质甚至虚假信息通过矩阵传播获得“可见度”,就可能在被引用时被放大影响。 其二,相比传统搜索“链接列表—自行筛选”的方式,生成式问答往往把信息汇总成单一答案,用户比对、质疑和交叉验证的过程被压缩,查证成本下降的同时,警惕门槛也被拉低。 其三,部分灰色营销机构为追求效率和收益,缺少基本的资质核验与合规审查,用“内容投放”替代“真实性证明”,违规空间随之扩大。 其四,医美、保健品等行业客单价高、利润高且信息不对称明显,更容易成为虚假宣传与误导性营销的集中领域。 三、影响:消费者权益受损风险上升,行业秩序与平台公信力面临考验 对消费者而言,模型回答若被“定向影响”,可能造成选择偏差:轻则带来经济损失,重则在医疗美容、健康管理等领域引发安全风险。 对行业而言,虚假“上榜”挤压合规机构的正常竞争空间,破坏公平环境,导致“劣币驱逐良币”。 对平台而言,用户对模型输出往往抱有更高信任预期,一旦频繁出现“回答带货”“推荐失真”,将直接冲击产品信誉和公共信任。更值得关注的是,生成式内容传播速度快、复制成本低、呈现方式更“像真的”,若缺乏治理,误导信息的规模化扩散可能超过传统搜索优化时代。 四、对策:强化行业自律与监管协同,推动平台治理与用户教育并进 从行业层面看,企业自律正在推进。近日,由有关产业组织发起的人工智能安全承诺专项完成签署,多家企业参与,表达出以规则约束、合规经营的信号。自律的关键是明确底线:不得制作虚假资质、编造榜单与评价;不得以隐蔽方式诱导模型形成偏向性结论;建立客户准入审核与内容真实性核查机制。 从监管层面看,互联网广告治理力度持续加大。市场监管部门在年度广告监管工作部署中,明确聚焦直播电商广告、引证广告、AI生成广告等重点难点,开展集中整治。在广告法等现行制度框架下,若以虚假或引人误解的内容影响消费者选择,本质上仍属于应依法治理的违法违规行为。下一步,建议在执法层面细化更可操作的标准,强化对“以生成式问答为载体的变相广告”“虚构背书与排行榜”等形态的识别与取证指引,提高违法成本。 从平台层面看,应建立更透明的推荐与引用机制:对可能存在商业关系的内容进行显著标识;优化训练与检索环节的“可信源优先”策略;对高风险行业(医美、药品、保健品、金融等)设置更严格的资质校验与回答约束;完善投诉与纠错通道,形成“发现—核查—下线—溯源”的闭环治理。 从用户层面看,媒介素养仍是重要防线。涉及医疗健康、投资理财等重大决策时,应坚持多方求证、核验资质、保留证据,避免把“看似权威的回答”直接当作可执行建议。 五、前景:商业化或将加速,规范化决定新业态走向 目前,多数主流大模型尚未开放面向“定向推荐”的官方商业接口,但随着规模化应用推进,模型服务的商业化探索可能提速。广告与推荐如何在“可持续运营”和“客观可信”之间取得平衡,将成为行业共同课题。市场机构对相关服务规模给出增长预期,说明需求客观存在;但越是在增长阶段,越要守住真实性、可追溯、可标识的红线。未来的竞争不只在模型能力本身,也在治理能力、合规能力与公信力建设:谁能更有效防范数据污染、遏制虚假营销、让商业推广在透明规则下运行,谁就更可能赢得长期信任与市场空间。
当技术迭代速度快于规则建立周期,保持清醒比盲目信任更重要。GEO乱象既是人工智能商业化过程中的阵痛,也是对社会协同治理能力的一次检验。只有在技术创新与制度保障之间找到平衡,才能更充分释放智能经济的正向价值。