这些年来,AI话题总是能引发热议。有研究报告显示,AI视频面试的应用场景占比已达31.8%。对招聘方而言,它降本增效的优势是可以量化的。据公开数据测算,一个AI面试官在24小时能完成2500个面试,比人力面试数量高出不少。
然而,这样的效率在面试者那里,却是另一番感受。有人觉得,AI面试打破了时空壁垒,对着机器人不会那么紧张;但也有不少人感到不适应:“人类竟然要讨好AI面试官,这太奇怪了。”没有情感的互动,只是单向的输出,多少让人有些尴尬。但作为一场招聘,体验感如何尚在其次,最核心的一点是:AI面试足够公平公正吗?
在真人面试中,人们的规则预期相对稳定。重点展现哪些能力,如何把握对话的节奏,无论对方是哪种风格的面试官,求职者至少心里是有数的。可一旦交给人工智能来评判,不确定因素恐怕就多了:一个人的综合能力,包括性格、情绪等维度,真的可以全方位量化吗?“你问我答”式的机械筛选,如何体现部分求职者的独特优势?基于AI现阶段的语义理解能力,会不会造成误判?算法终究是人写的,“AI面试官没有主观偏见”这个说法,同样值得商榷。鉴于“算法黑箱”的存在,哪怕只是用于初筛阶段,其负面效应也应当引起重视。
更重要的是,算法的不透明、技术的不完善,还可能被别有用心者利用,滋生出“AI作弊”产业链,制造另一种性质的不公平。除了五花八门的“辅导真题”,还有商家宣称,一些“AI面试神器”可以实时转录面试官的问题和对话,一键生成答案。
究其动机,或许不是“走捷径”这么简单。有的是在表达一种“软抵抗”,想在这场博弈中“扳回一城”;有的恰恰是出于“公平焦虑”——若是系统存在漏洞,至少自己不能吃亏。不过,“用AI打败AI”的算盘,不仅不能从根本上解决问题,还会徒增法律风险,破坏正常的竞争秩序,损害企业招聘利益。某银行部门人士就直言,已关注到外挂工具,将从技术监测、规则制定等多方面入手,构建完善的防范体系。当“反作弊”与“反检测”来回上演,这场“魔法对轰”中,注定不会有赢家。
技术总有两面性,关键是向善去弊。从“已读乱回”的AI客服,到“不近人情”的AI面试,“去人化”趋势已初露端倪,对于新生事物,既要保持开放态度,也须及时打好“补丁”,尽快完善各种规则。为避免隐私泄露,在重申“最小、必要”原则之余,用人单位还须建立严格的数据保护机制;对于隐性的算法歧视,有必要引入外部监督力量,对算法背后的评价体系、决策过程等进行评估;让AI面试走出程式化的“一问一答”,除了加大技术升级的力度,还须增设人工复查环节,做好数据衔接,形成更加科学的招聘闭环。唯有如此,才能更好保护劳动者的权益,让技术回归服务初心。
说到底,招聘是一个双向选择的过程。求职者在接受面试的同时,不也在考察着招聘方?为避免“欲速则不达”,还得警惕“智能崇拜”,回归以人为本。(钟颐)