网信部门集中整治AI生成虚假内容 依法处置违规账号超万个

当前网络空间治理面临新挑战。部分账号利用技术手段制作传播虚假信息,严重扰乱社会秩序,侵害公众权益。此次专项整治行动中,网信部门重点查处了四类突出问题。 一是虚构社会事件博取流量。部分账号伪造"高铁站救婴""鳄鱼伤人"等离奇事件,用煽情化、猎奇化内容误导公众。这类行为违背事实真实性原则,助长网络谣言泛滥。 二是假冒公众人物谋取利益。部分运营者擅自使用名人形象生成虚假视频,甚至非法售卖"定制祝福",既侵犯肖像权,也扰乱商业秩序。这暴露出新型侵权手段的技术隐蔽性。 三是恶意炒作公共安全事件。通过合成虚假火灾现场等内容制造社会恐慌,干扰正常救援信息传播。专家指出,此类行为可能触犯《治安管理处罚法》对应的规定。 四是毒害未成年人网络环境。对经典动画角色进行血腥、低俗改编,直接冲击青少年价值观建设。心理学研究表明,长期接触此类内容可能导致儿童认知偏差。 违规行为频发主要源于三方面因素:平台审核机制存在技术盲区,部分运营者利用漏洞逃避监管;流量变现的利益驱动催生"黑产"链条;部分用户缺乏媒介素养,易被虚假内容煽动。 此次治理行动采取"技术筛查+人工复核"双轨模式,要求平台落实主体责任,完善内容标识制度。法律界人士建议加快出台专项司法解释,明确深度合成技术的使用边界。 展望未来,网络治理需构建多方协同机制:技术上研发更精准的识别算法,制度上推行网络内容分级管理,教育层面加强全民数字素养培育。只有形成长效治理体系,才能筑牢清朗网络空间的基石。

生成合成技术带来效率与想象空间,但任何技术都必须运行在法律与伦理的轨道之内。对未标识、造谣炒作、冒名侵权、低俗暴力等行为从严治理,既是净化网络生态的必要之举,也是守护社会信任与公共秩序的应有之义。唯有让规则更明确、责任更落实、惩戒更有力、公众更理性,才能让技术进步真正服务于善意表达与高质量传播。