最近有个事儿挺让人担心的。大家平时用的人工智能搜索越来越离不开生活了,不管是查旅行攻略还是看病问医,都习惯直接问智能助手。可问题来了,这种新技术虽然让找东西变得快了,背后却藏着不少商业操控的风险。 记者调查发现,有一种叫“生成式引擎优化”的新广告模式正在兴起。跟咱们平时点百度上的那种不同,这招专门瞄准大语言模型的抓取逻辑。有个做广告的老板拿了个例子给记者看,说只要在合作平台上批量发特定品牌的文章,相关商业信息就能在很多主流人工智能平台的搜索结果里排到前面去,而且压根看不到“广告”这两个字。 清华大学人工智能伦理研究中心的陈明教授觉得,这实际上是在挑战公众的信任。如果用户分不清收到的信息是机器客观分析出来的还是商家故意推过来的,人工智能作为信息中介的信誉就会受到严重打击。 更吓人的是,这种商业植入还造成了一种新型的“数据污染”。有些公司为了让植入成功,会发一大堆质量不高的同质化文章,主动喂给人工智能抓取系统。今年3月有个科技自媒体做了个实验,把一篇假的行业分析报告发在好几家平台上,结果几个小时后,好多人工智能平台在问答时都把这份报告当成了信源。 北京大学数字法治研究院的报告也指出,现在的生成式人工智能找源头的机制有很大漏洞。虽然有些平台在结果后面加了链接,可普通用户很少点开仔细看。报告里还特别提到,有些机构甚至会伪造权威报告、弄个假专家身份出来,系统地造假信源,形成了一条从生产到分发的完整灰色产业链。 工信部那边的人说,目前还没有强制规定要给生成式搜索结果做商业标注。跟传统搜索引擎不一样,现在的智能搜索领域还在监管空白期。上海市市场监督管理局网络交易监管处的负责人也表示,怎么界定这种新推广的法律性质、怎么定一个合理的披露标准,是监管部门现在最头疼的事。 技术总是在进步,治理也得跟上。生成式人工智能要想健康发展光靠算法优化不行,还得有一套透明的规则和监督体系。只有保证了技术方便又不失真实,人工智能才能真正帮社会进步。这就需要技术开发者讲伦理、监管机构立规矩、大家一起形成理性的使用观念,共同维护好数字信息环境。