算法偏见会让ai 做出不公平的判断,梅兵提出要给它们“洗洗脑”。现在的ai 教育产品搞得非常热闹

算法偏见会让 AI 做出不公平的判断,梅兵提出要给它们“洗洗脑”。现在的 AI 教育产品搞得非常热闹,全国人大代表梅兵、华东师范大学党委书记觉得这事挺关键,国家层面得赶紧弄个审核机制出来,不能让乱七八糟的数据带偏了孩子。她担心数据本身要是有偏差,或者算法带了私心,那教育结果肯定不科学,对学生来说也不公平。 现在人工智能在学校里的应用越来越多,有的帮忙教东西、有的帮老师批改作业,看上去确实是为了让教育更好。可是这事儿光靠技术不行,还得看治理。这些 AI 产品都得靠海量数据来练手,如果练的素材里缺了点啥或者太偏向某些地方、某些人,那么它在给学生评作业、分资源的时候就会出岔子。 梅兵举了两个特别明显的例子来说明这个问题:一个自适应学习平台给城市学生推送的那种需要动脑的题目有35%,但给农村学生的却少了很多;另一个作文评分系统因为练的都是城里学生的卷子,占比超过80%,结果碰到农村学生写的“麦秸垛”或者“打谷场”,系统就看不懂了,老是给分低。这就像是数据漏掉了一些人的声音,甚至会让人产生不一样的看法。 更让人不放心的是有些 AI 产品在讲解知识或者回答问题的时候,价值观也有点对不上号。比如有的翻译工具只说月饼是个糕点,忘了它背后的团圆心意;有的历史问答软件光讲技术的重要性,把民族抗争给淡化了。还有些聊天工具在遇到学生心情不好的时候根本管不住嘴,存在很大的风险。 最让人头疼的是这些 AI 太神秘了。好多系统的算法像个黑箱子一样,老师、学生还有家长根本搞不懂它是怎么想的、是怎么下结论的。大家只能傻乎乎地跟着算法走。比如有的系统给数学差的学生一直发几何题练手,家长问凭什么这么选?它就说算法自动匹配一下就完了;还有学校里的评估系统直接给特级老师打标签说教学僵化,让辛苦耕耘多年的老教师也很迷茫。