律师诉百度AI生成不实信息案引争议 科技伦理与法律边界亟待厘清

一场人与机器的法律对峙正在展开。

59岁的律师黄贵耕最近成为这场纠纷的中心人物。

2025年5月,他收到案件委托人转发的四张截图,内容显示百度AI根据"黄贵耕律师"关键词生成的搜索结果中,充斥着伪造公司印章案、威胁法官案等严重指控。

这些信息不仅给黄贵耕造成了巨大困扰,更直接影响了他的执业声誉和委托人信任。

经过数天的深入调查,黄贵耕发现问题的症结所在。

他通过多次变换设备和搜索关键词进行验证,最终确认这些负面信息并非人为编造,而是百度AI系统主动生成的内容。

更令人震惊的是,AI在生成这些虚假信息时,还标注了看似权威的来源,包括人民法院报、最高人民检察院等司法机构名义。

经过逐一核实,黄贵耕发现了AI生成虚假信息的具体手法。

所谓的"威胁法官"和"伪造印章"情节实际出自新闻报道中的其他案例,AI将经过匿名处理的"律师黄某""法律顾问黄某"等表述篡改为黄贵耕本人名字,并关联其所在律师事务所;"伪造担保函"的内容源自最高检指导的案例,AI将当事人"黄某平"替换为黄贵耕的名字;甚至将一名匿名处理的黄姓女律师的处罚信息"嫁接"到他身上。

这种"张冠李戴""移花接木"的做法,使原本毫无关联的信息被错误地组合在一起,形成了一个完整的虚假指控体系。

黄贵耕进一步发现,百度搜索平台构建了一套关于自己的"负面信息传播闭环"。

当用户搜索"律师黄贵耕"时,会被自动关联"律师黄贵耕有没有犯罪""律师黄贵耕为什么不建议找"等一系列负面信息。

这种算法推荐机制将虚假信息不断强化和放大,使得原本的错误内容逐渐演变成了"事实",对黄贵耕的执业生涯造成了实质性伤害。

黄贵耕的遭遇并非孤例。

新华社记者采访发现,2025年以来,多位受访者都曾遭遇类似的AI生成虚假信息问题。

在各大搜索平台上,AI系统针对用户生成的负面信息"言之凿凿"地对其判刑、定罪,甚至"挑唆"关联其他负面事件。

这一现象反映出当前AI生成内容监管存在的普遍漏洞。

面对这一问题,法律界和学术界的态度出现了分歧。

一些资深律师认为,为了保护科技创新的健康发展,人类应当对机器犯的错误保持一定的"容忍度",不能因为个别问题就过度限制新技术的应用。

这一观点强调的是创新的价值和技术发展的必要成本。

然而,学术界多数专家对此提出了异议。

他们认为,虽然科技创新值得鼓励,但这种鼓励不应该以牺牲用户权益为代价。

作为AI系统的开发运营者,百度等互联网平台公司应当肩负起保护用户合法权益的责任。

这包括对AI生成内容的真实性进行必要的审核、建立有效的错误纠正机制、以及为因虚假信息造成的损害承担法律责任。

2025年9月,黄贵耕决定向法院提起诉讼,以侵犯名誉权为由将百度公司告上法庭。

这一举动标志着人与机器的对峙升级到了司法层面。

黄贵耕的核心主张是,被视为造福人类的机器"主动伤人",其开发运营者具有不可推卸的责任。

这一观点挑战了人们对AI中立性的传统认知,强调了平台公司在内容生成、审核、传播全链条中应当承担的法律义务。

这场诉讼面临的首要问题是:法院应当如何界定AI生成虚假信息的法律性质?

是否应当将其视为平台公司的直接行为还是算法推荐的结果?

平台公司对AI生成内容应当承担什么程度的责任?

这些问题目前在法律上仍属于灰色地带。

接受采访的多位法官坦言,面对这类案件,他们也在思考应当如何做出判决。

从更深层的角度看,这场纠纷反映出AI时代法律制度的滞后性。

随着生成式AI技术的快速发展和广泛应用,虚假信息的生成、传播和危害方式正在发生根本性改变。

传统的名誉权保护框架可能需要进行相应的调整和完善,以适应新技术带来的新挑战。

同时,平台公司的法律责任边界也需要通过司法实践逐步明确。

当前,相关部门已经开始关注这一问题。

工业和信息化部、国家网信办等机构正在推进生成式AI的监管框架建设。

但从个案来看,仍然需要通过司法判例的积累,逐步建立起完整的法律规则体系。

技术进步不应以侵蚀个体名誉为代价,创新也不能靠模糊责任边界来换取效率。

生成式检索带来的便利越大,对真实与审慎的要求就越高。

把纠错机制做实、把证据链展示做清、把责任分工压到位,既是对个体权益的保护,也是对信息生态与公共信任的守护。

只有让技术在规则内运行、在监督下迭代,才能真正实现“向善”与“可持续”。