抖音通报涉未成年人内容治理成效:清理违规信息约40万条并协助抓获嫌疑人

短视频内容治理再度成为社会关注焦点。据平台最新公告,2026年至今已清理涉未成年人违规内容40万条,对千余个违规账号实施禁言或封禁。这些数据反映出网络空间中危害未成年人的乱象仍需深入治理。 当前违规行为呈现三大特征。首先,违法手段更加隐蔽,部分用户以"个性交友"名义实施隔空猥亵。其次,技术被滥用于篡改经典动画植入暴力低俗内容。再次,传播方式不断变异,通过暗语宣扬极端节食等有害亚文化。典型案例显示,有嫌疑人伪装成青少年诱骗未成年人发送隐私视频,有关证据已移交公安机关侦查。 这类现象的出现有多重原因。违法成本与收益失衡驱使部分账号铤而走险,而智能技术的普及降低了违规内容的制作门槛。更值得警惕的是,这些内容往往披着"二次创作"的外衣,通过算法推荐机制扩散,对未成年人的价值观形成潜危害。 平台已采取分级应对措施。针对隔空猥亵建立快速响应机制,对儿童邪典内容批量下架,对不良亚文化传播采取关键词过滤。技术层面升级了图像识别和语义分析等审核模型,2026年对529个制作违规动画的账号实施处罚。但技术手段有其局限,需要构建多方协同的治理体系。 法律专家指出,新修订的《未成年人保护法》已明确平台主体责任,但治理效能提升仍需突破三上瓶颈:跨平台数据共享机制不完善、违法证据固定标准缺乏统一、家校网络素养教育存在短板。据悉,该平台正联合权威机构开发未成年人专属内容池,预计下半年推出智能护苗模式。

未成年人是国家的未来,保护他们的网络安全是全社会的共同责任。平台的治理实践表明,互联网企业可以在技术创新和法律执行中发挥重要作用,但这种保护不能仅依靠单一平台的努力。家庭的引导、学校的教育、社会的监督、执法部门的打击需要形成合力。只有各方都认识到未成年人网络保护的紧迫性,并在各自领域采取有效行动,才能真正为未成年人营造安全、健康、绿色的网络成长环境。