眼下AI在网上搜东西越来越普遍,不少平台搜出来的结果里悄悄藏着推销的内容,这就好比是传统SEO变成了GEO,也就是大模型优化。广州的张女士就上过当,AI推荐她买了台高价咖啡机,结果用起来跟预想差太远,后来才知道那是商家的套路。 现在有些机构为了赚钱,直接把手伸向了AI训练用的那些数据。有个自媒体做过实验,在几个网站上狂发内容一模一样的文章,几小时后主流AI平台一问这方面的问题,就把这家自媒体排在前面。这种做法简直就是在往AI脑子里塞垃圾。某家做AI的技术人员也说了,现在很多人就是大量投那种不叫文章的软文,全靠抓概率来实现信息植入,只要你点开看源网址就能看到。 还有更隐蔽的操作,搜“生成式引擎优化服务商”时,AI竟然列出了所谓的“2025年研究简报”,说是某个权威机构发的。结果一查根本没这回事,全是广告公司伪造的。医疗美容那边也是一样,有人咨询推荐机构时,出来个自称是三甲医院副主任医师的建议,根本查不到真人。 这种现象既损害了消费者的知情权,也会让AI变傻。北京理工大学的专家指出,现在的数据抓取还是在整合网上现有的信息,一旦有人有组织地投放特定内容,就容易搞出数据上的暗箱操作。法律界人士也说了,虽然有法规要求互联网广告要能识别出来,但在AI生成的场景里怎么认定和执法还是个难题。 技术升级背后的商业逻辑正在迁移。某家广告公司的业务员透露,以前大家是靠花钱抢搜索排名,现在是通过改大模型的训练数据来塞广告。他们给的价目表显示,“代运营服务”的年费从2980元到16980元不等,价钱越高给的算力就越强,效果也就越好。 最后还是得看怎么管。专家建议技术企业得把数据过滤和标注的机制做好,监管层也要制定一套适应新技术的规范体系。只有大家一起努力筑牢伦理的防线,AI才能真正变成值得信赖的信息助手。