生成式AI虚假信息问题凸显 平台法律责任需要厘清

一、问题浮现:技术应用引发新型侵权 黄贵耕律师使用智能搜索查询个人姓名时,发现系统自动生成多则包含“伪造担保函”“刑事犯罪”等内容的记录,均与事实不符。经核实,对应的信息源于算法抓取碎片化数据后发生错误拼接。黄律师多次要求删除未果,遂向法院起诉,主张涉事平台构成名誉侵权并承担相应责任。 二、争议焦点:平台责任边界亟待厘清 庭审中,平台代理律师以“技术中立原则”为依据,将智能搜索工具比作菜刀等物理工具,认为不应追究工具提供者责任。原告方则指出,具备自动生成与推荐能力的智能系统并非被动工具,平台未建立有效的内容审核与纠错机制,已构成过失。中国人民大学法学院专家表示,此类案件关键于平台是否尽到“合理注意义务”,既包括事前风险控制,也包括事后处置与救济。 三、深层分析:技术迭代与法律滞后矛盾凸显 统计显示,2023年全国类似技术侵权纠纷同比增长217%,集中暴露三上问题:一是算法机制不透明,错误信息难以追溯源头;二是现行《民法典》第1195条关于网络服务提供者责任的规定,尚难完全覆盖智能系统的生成特性;三是赔偿标准缺少针对技术侵权的更细化规则。中国社科院法学所报告指出,全球已有24个国家出台专门法规规范智能技术应用,我国相关立法仍需加快推进。 四、应对建议:构建技术治理综合体系 多位法律界人士提出综合方案:一是建立算法备案制度,要求平台披露关键逻辑与风险控制措施;二是推行“熔断机制”,对高频错误信息触发自动拦截与复核;三是设立专项赔偿基金,由平台按营收比例缴纳,用于快速救济。北京市互联网法院近期试点“技术陪审员”制度,邀请计算机领域专家参与辅助审理同类案件,已取得一定效果。 五、发展前瞻:技术伦理建设需同步推进 随着人形机器人、自动驾驶等技术加速落地,责任认定将更为复杂。清华大学人工智能研究院建议借鉴欧盟《人工智能法案》,按风险等级实施分类监管。工信部相关负责人透露,我国《人工智能产业促进法》草案已纳入“过错推定原则”,未来技术提供者若主张免责,需证明自身不存在过错。

技术进步不应以牺牲权利为代价。生成式应用越普及,越需要对真实、可追溯与责任落实提出更高要求。面对“自动生成的失实指控”,既不能用“工具论”简单带过,也不能让创新在无序风险中扩张。用法治划清边界、用治理补齐机制、用透明重建信任,才能让新技术在可控轨道上服务社会,而不是制造新的不确定与伤害。