(问题)未成年人触网规模持续扩大,网络空间的风险样态也随之演化。近年来,一些不良内容通过隐蔽话术、变形表达、跨平台引流等方式规避监管,低俗言论诱导、软色情擦边、隔空骚扰等问题时有发生,部分内容还叠加新技术带来的“拟真化”“碎片化”传播特征,给未成年人的身心健康、价值观塑造与学习生活造成干扰。如何保障安全的同时满足未成年人获取知识、拓展视野、社交表达的合理需求,成为平台治理能力与社会治理体系共同面对的现实课题。 (原因)风险多发背后有多重因素叠加:其一,内容生产门槛降低、传播链路缩短,导致不良信息更易快速扩散;其二,未成年人辨识能力与自我控制能力相对不足,易被“情绪化表达”“猎奇化叙事”吸引;其三,部分违规行为呈现组织化、产业化苗头,通过矩阵账号、暗语标签、私域导流等方式“打游击”;其四,家庭监护与学校教育在数字场景下仍存在信息差与工具缺口,家长“想管不会管、想陪没时间陪”的现象较为普遍。上述因素决定了未成年人网络保护不能依靠阶段性整治,更需要制度化、工具化、可持续的治理闭环。 (影响)平台此次公布的治理数据与处置举措,表达出对涉未成年人有害内容“从严从快”的明确信号:近两周清理违规内容10.2万条、处置账号4114个,说明了对“内容—账号—行为链条”的梯度管理思路;同时,平台披露的年度治理规模亦反映出常态治理的强度——2025年累计清理涉未成年人对应的违规内容240万条,处置相关违规账号8.4万个。对行业而言,这类公开透明的治理通报与典型案例披露,有助于形成规则震慑与预期引导,推动“流量逻辑”向“责任逻辑”校正;对社会而言,持续提升治理可见度与可检验性,有利于增强公众监督与家长信任,促成多方参与的治理生态。 (对策)从措施设计看,此次升级呈现“守底线”与“促成长”并重的路径。一上,安全防护侧强调系统化、全链条治理:平台提出将升级多模态识别能力,扩大有害信息识别拦截范围;强化专项巡查机制,提升对隐蔽表达、变体内容的发现能力;畅通未成年人举报绿色通道,并以定期发布治理公告方式接受社会监督。技术识别、人工巡查与外部监督相结合,旨在把治理从“事后处置”前移到“事前预防”和“过程阻断”,避免“一阵风”式整治带来的反弹与套利空间。 另一上,发展赋能侧将“陪伴”更延伸为“共育”。平台宣布升级“2026年未成年人陪伴计划”,在产品功能、内容供给、安全防护、公益助力等维度形成组合拳:通过分龄推荐与适龄内容匹配,尝试破解未成年人模式“一刀切”导致的供给失衡;通过亲子护航工具的优化,以更直观的使用时长数据、更细化的功能授权,帮助家长从简单限制转向引导沟通;并探索情绪关怀机制,将保护边界从行为安全延伸到心理健康与情绪识别,提升数字守护的精细度与温度。总体来看,这类举措指向一个更清晰的治理目标:让未成年人在可控、可评估的环境中使用互联网,在降低风险的同时获得高质量内容与正向互动。 (前景)未成年人网络保护是一项系统工程。法律制度已明确家庭、学校、社会、网络、政府、司法等多方责任框架,关键在于协同落地与持续迭代。面向未来,平台治理仍需在三上加深:一是以更严格的规则体系压实主体责任,提升对跨平台引流、变体表达、灰产链条的联动打击能力;二是推动适龄内容供给提质扩面,引导优质创作者与机构增加科普、体育、美育、劳动教育等内容供给;三是完善家校社协同机制,降低家长工具使用门槛,推动数字素养教育常态化。随着监管标准、行业自律与社会监督共同发力,未成年人网络空间有望从“被动防御”迈向“主动塑造”,形成更清朗、更有序、更利于成长的数字生态。
在数字化时代,构建适合未成年人成长的网络环境是企业责任,更是关乎未来的系统工程。当技术向善成为共识——家校协同形成合力——我们才能帮助未成年人成为合格的数字公民,让他们在清朗的网络空间中健康成长。这不仅是互联网行业的责任,更是全社会的共同使命。