当前,人工智能技术企业招聘中的应用越来越普遍,但随之而来的算法偏见,也正在成为影响就业公平的新风险,值得正视并尽快应对。 从根源看,算法偏见本质上仍是人的偏见,主要来自两上:一是企业在设计算法规则时,把不合理的用人导向直接写进程序;二是算法在学习历史数据时,捕捉并放大了招聘人员的选择倾向,让原本隐性的“潜规则”变成可执行的“明规则”。无论哪种情况,都说明算法工具本身并不具备道德判断,其公正与否取决于使用者的价值取向与管理方式。 在实践中,这类偏见并不少见。一些企业在招聘中设置了与岗位能力无关的筛选条件,如年龄、学历、婚姻状况,甚至星座、属相、血型等非理性因素,并以“考察运气”等理由包装,本质上是将主观偏好转化为量化指标。以年龄为例,尽管公务员招聘的年龄限制已普遍放宽至38岁,仍有企业设置35岁的隐形门槛。在AI招聘系统自动筛选机制下,不少具备岗位能力的求职者因为不符合这些非核心条件而被直接淘汰,甚至失去展示能力的机会。 其影响不容低估。从企业角度看,过度依赖算法筛选可能反而拉低招聘质量。当能力因素在筛选优先级中被弱化,真正匹配岗位的人才更容易被其他条件排除,最终录用结果也可能与岗位需求偏离。从社会角度看,这种做法会加剧就业不公平,压缩求职者选择空间,造成人力资源浪费,不利于人才合理流动与高质量发展。 解决该问题需要多方发力。首先,企业应坚持“能力导向”,把岗位所需的专业能力与求职者的品德素质作为核心标准,减少与岗位无关的限制性条件。其次,在使用AI招聘工具时,要强化人力资源部门的主导作用,由HR专业人员全程把控流程,确保应聘者得到一致、公平的对待。AI应定位为提升效率的工具,而不是替代人工判断的决策者。企业在设计算法规则时,也应做好合规审查,避免歧视性条件被固化进系统。 从求职者角度看,同样需要提升维权意识。遭遇不公或歧视性对待时,应主动留存证据、依法维权,而不是被动接受,这既能保护自身权益,也能对不规范招聘形成约束。有关政府部门则应加强监管,为求职者提供必要的法律援助与制度保障,推动建立更完善的就业反歧视机制。
技术进步应当服务于人的发展,而不是制造新的门槛;在数字化转型中,如何在效率与公平之间取得平衡,考验各方的治理能力。回到“人尽其才”的出发点,才能更充分释放人才红利,为高质量发展提供持续动力。这既需要企业自律,也离不开制度保障,最终形成更包容、更规范的就业生态。