问题——生成式人工智能逐步从“工具”延伸为“陪伴”,在未成年人群体中使用热度高、触达场景广,带来机遇的同时也叠加风险。
中国互联网络信息中心发布的《生成式人工智能应用发展报告(2025)》显示,截至2025年6月,19岁及以下生成式人工智能用户规模约1.86亿,占比达33.8%,在各年龄段中居首。
多地学校、家庭反馈,部分青少年在学习检索、写作绘画、情绪表达等方面对相关应用依赖上升,如何在鼓励创新与守住底线之间找到平衡,成为现实课题。
原因——一方面,技术产品以“即时回应、情绪接纳、互动拟人化”为主要体验优势,满足青少年求知与被理解的心理需求;另一方面,算法以历史输入和偏好为依据优化输出,容易在无形中强化单一兴趣与固定立场。
对处于价值观形成期、情绪波动期的未成年人而言,“随问随答”的低门槛获取方式,可能弱化对信息来源、推理过程与证据链条的关注,进而形成路径依赖。
此外,部分产品在商业驱动下追求停留时长与互动频次,若缺少清晰的未成年人保护机制,拟人化互动更易滑向“过度陪伴”。
影响——积极影响不容忽视。
生成式人工智能降低了知识检索与表达创作的门槛,为青少年打开更广阔的学习空间:从自然科学到人文艺术,从语言练习到程序启蒙,都能提供即时辅助;在创意表达上,文本、图片等多模态生成让灵感更易落地,促进兴趣发展与项目式学习。
但风险同样需要正视:其一,过度依赖可能削弱独立思考与问题拆解能力,出现“结果导向”替代“过程学习”;其二,同质化推荐叠加选择性接触,容易导致认知面变窄、观点趋于极端;其三,当情绪安抚被算法持续强化,青少年可能减少与现实人际的沟通,进而影响社会交往能力与挫折承受力。
更值得警惕的是,一些拟人化表达容易营造“永远正确、永远赞同”的互动氛围,使反思与自我校准空间被压缩。
对策——面对技术浪潮,关键不在简单禁止或放任,而在以制度约束、产品自律与教育引导构建协同治理框架。
2025年12月,国家互联网信息办公室公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,对“陪伴型”拟人化互动服务首次提出系统性规范,划定制度边界,并针对未成年人用户设置专门条款,强调未成年人模式、使用权限与监护人管控等要求。
这一举措释放出明确信号:鼓励创新应用,但必须把安全、伦理与未成年人保护置于前位。
在落实层面,需多方同向发力。
技术开发者应作为风险防控第一责任主体,完善未成年人模式与分级内容策略,优化推荐逻辑与提示机制,在关键信息领域强化事实核验与来源提示,减少诱导沉迷的交互设计,并建立全流程审查、可追溯与纠错机制。
学校应将人工智能素养教育纳入综合实践与信息科技课程体系,在教授基本使用技能的同时,更强调批判性思维训练,如信息验证、引用规范、学术诚信、隐私保护与时间管理,让学生学会“会用、慎用、善用”。
家庭层面,监护人既要提高数字素养,也要提供稳定的现实陪伴,通过共同制定使用规则、开展线下活动与情绪沟通,帮助孩子在真实社会关系中获得支持,避免把屏幕互动当作唯一出口。
前景——从更长周期看,技术演进常伴随社会适应期。
过往从电视到互联网的普及,都曾引发对青少年沉迷与误导的担忧,最终的治理经验表明:以规则明确边界、以教育提升能力、以家庭与社会提供替代性支持,才是把风险降到可控范围、把红利释放出来的路径。
随着相关法规制度逐步完善、行业标准不断细化、校园教育持续推进,拟人化互动服务有望在“可用、可信、可控”的框架下发展,真正成为学习助力而非成长负担。
技术进步与人类发展的永恒命题,在人工智能时代被赋予新的内涵。
当我们审视青少年与智能技术的关系时,既不能因噎废食,也不可放任自流。
构建科技向善的生态系统,需要技术创新、制度设计、教育引导的协同发力。
唯有在拥抱技术的同时坚守育人本质,方能让年轻一代在数字浪潮中既保持探索的锐气,又葆有思想的深度,最终成长为兼具科技素养与人文底蕴的新时代建设者。