八部门联合出台新规 精细化分类筑牢未成年人网络保护屏障

问题:随着未成年人触网年龄提前、使用场景增多,网络空间中诱导模仿不良行为、扭曲价值观、滥用未成年人形象、泄露个人信息等现象时有发生。

一些内容以“热梗”“挑战”“流量话题”包装,传播路径隐蔽、更新迭代快,容易对未成年人心理认知、行为选择和价值观形成产生不良影响。

与此同时,家长、学校、平台与监管在面对新类型内容时,往往存在认定标准不一、处置尺度不明等现实难题,导致治理成本上升、风险外溢。

原因:一方面,网络内容生产门槛降低、传播速度加快,部分创作者为追逐流量与商业变现,刻意制造猎奇、对立或“擦边”内容,甚至把未成年人形象作为吸引关注的工具。

另一方面,算法推荐在提升信息匹配效率的同时,也可能放大情绪化、刺激性内容,形成“越看越推”的链式传播,未成年人自控能力相对不足,更易陷入信息茧房与过度沉浸。

此外,未成年人个人信息在短视频、直播、社交平台等多场景被展示和收集,隐私保护边界不清、监护人授权机制不完善等问题交织,使风险呈现复合化、链条化特征。

影响:此次办法将“可能影响未成年人身心健康的网络信息”细化为四大类别,提升了规则的可识别性与可操作性,为平台审核、执法监管、家庭与学校教育提供了统一参照。

第一类聚焦诱导模仿不良行为的信息,涵盖性暗示、网络暴力、诱导非理性追星打赏等,旨在从源头减少对未成年人行为的错误示范。

第二类指向价值观层面的负面内容,覆盖炫富拜金、畸形审美、“读书无用论”等,强调营造健康向上的网络文化生态。

第三类针对不当使用未成年人形象的内容,直面“摆拍牟利”“恶搞博眼球”等现象,回应“网红儿童”等新问题。

第四类强调个人信息保护,提出对不满十四周岁未成年人学习生活场景等信息展示的限制要求,进一步明确监护人同意等关键环节。

总体看,分类标准把原则性要求转化为具体规则,有助于减少“模糊地带”,推动治理更精准、更协同。

对策:办法在划清风险边界的同时,进一步压实平台与内容生产者的主体责任,构建覆盖内容呈现、传播路径与风险提示的全链条防护体系。

其一,在信息展示方面,明确不得在首页首屏、热搜、弹窗、榜单等显著位置呈现相关风险信息,减少未成年人“被动触达”的概率。

其二,在技术治理方面,将算法推荐、相关新技术应用纳入规制框架,要求建立健全安全管理制度,严禁向未成年人推送风险信息,特别是面向未成年人提供服务的产品与服务,要从源头全面禁止制作、传播相关不良信息,体现“儿童优先”的治理导向。

其三,在提示机制方面,细化标识要求,推动内容生产者在展示前进行显著提示,平台提供专属标识功能,并对文本、视频等不同载体的提示位置作出明确规定,以提升未成年人自我辨识能力,也便于监护人及时发现并进行引导。

其四,在协同治理方面,分类办法为监管执法、平台审核、行业自律、家庭教育与学校教育提供同一“尺度”,有利于形成责任闭环,减少推诿与空转。

前景:从治理逻辑看,分类办法的出台标志着未成年人网络保护进一步从“问题出现后处置”向“风险出现前预防”迈进。

下一步,制度效果仍取决于执行力度与配套细则的落地:平台需持续优化审核机制与未成年人模式,完善身份识别与分级保护措施;内容生态治理要兼顾规则刚性与技术可行性,防止“一刀切”影响正常表达;同时,应加强对个人信息保护、未成年人形象商业化利用等领域的执法协同与典型案例发布,形成可复制的治理经验。

随着规则更清晰、责任更明确、技术更精准,未成年人网络空间有望实现更可持续的“安全可用、健康可见”。

未成年人是国家的未来和民族的希望。

在互联网深度融入社会生活的时代,为未成年人营造清朗、安全的网络环境,是全社会的共同责任。

《可能影响未成年人身心健康的网络信息分类办法》的出台,不仅是对过往网络治理经验的总结,更是对未来发展方向的引领。

通过明确的分类标准、刚性的平台约束和有效的提示机制,我国正在构建一套更加科学、更加人性化的未成年人网络保护体系。

这套体系将网络平台从被动应对转变为主动防控,将家长和学校从盲目管理转变为有据可循,将监管部门从事后处置转变为事前预防。

展望未来,随着《办法》的全面落实,我们有理由相信,未成年人将拥有更加健康、更加安全的网络成长空间。