正在筛你简历的HR和猎头,可能不是人……
图片来源:Pixabay
小型初创企业和大型专业团队都在使用 AI 寻找和招募新员工——但这些工具可能加重偏见。
来源 | 科研圈(ID:keyanquan)
撰文 | SHUBHAM AGARWAL
翻译 | 杜梦菲
编辑 | 魏潇
今年 1 月,住在美国西雅图的用户体验顾问 Torrey Podmajersky 收到了一封冷邮件(指来自不熟的,甚至是陌生的人的建立联系或寻求帮助的邮件),它来自一位名叫 Jennie Johnson 的猎头。邮件写道,Johnson 为 Podmajersky 创建了一份职业档案,并推荐了几个匹配的职位空缺。但是档案过于笼统,缺少她的职业履历的几处重要细节,Podmajersky 也根本没有在找工作,她以为这是场诈骗。
直到她翻到邮件底部,她才发现 Johnson 甚至不是人类。这封电子邮件来自人工智能(AI)机器人,这背后的公司把它描述为一个“精英职业教练的 AI 代表”。Podmajersky 回忆道:“(我感到)恶心,因为我意识到这个设计是为了让人感到自己很特别,有人关心和支持,而这一切都是虚假的。”
纽约州奥尔巴尼市的一位退休销售和市场主管 Douglas Hamilton 也收到了 Jennie Johnson 的电子邮件。Hamilton 表示机器人整理的岗位都是“错误的角色、错误的行业、错误的层级”。他之所以打开那封邮件,是因为猎头的照片吸引了他的目光,这在招聘信件中并不常见。但那张照片也是 AI 生成的。
机器人 Jennie Johnson 是生成式 AI 公司 Hyperleap 开发的工具的一部分。在过去几个月中,Jennie Johnson 给许多专业人士发送了不请自来的邮件。不论是小型初创公司还是领英(LinkedIn),招聘平台都在更多地使用 AI 来发现、筛选、招聘新的员工,Jennie Johnson 只是该现象的一个例子。随着这些工具变得愈发复杂,专家们担心它们可能使得就业市场对求职者来说更不人性化,并且可能加重现有的偏见。
位于犹他州帕克城的 Hyperleap 公司制作了这款在线求职工具 Jennie Johnson,它为注册开启服务的用户自动发送整理的岗位。公司的首席运营官 Kevin Holbert 表示,这个 AI 会搜索在线职位公告栏和企业网站,构建一个可检索的数据库。然后,它会梳理一个人的领英档案、简历和工作经历,将信息在其数据库中匹配,推荐工作机会。
虽然任何人都可以注册该服务,但是 Holbert 表示,像 Podmajersky 和 Hamilton 这样会收到这些不请自来的邮件是因为 Hyperleap 在早期营销中为了获取新用户和一个招聘平台合作过。他表示,任何注册了那个平台的用户也会收到来自机器人 Jennie Johnson 的通知。然而,Podmajersky 和 Hamilton 在那段时间都没有注册任何招聘平台。Holbert 表示,公司那之后“终止了这项合作”,并“持续清理我们的名单,删除未参加的用户”。
在人力资源管理行业中,自动化技术已经被使用了十余年,由此自然延伸出了类似 Jennie Johnson 这样的服务。来自美国人力资源管理协会(Society for Human Resource Management,SHRM)的 Regan Gross 为人力资源专家提供招聘中的建议,Gross 表示,自动化技术包括基于关键词筛选简历的申请人追踪软件。《财富》(Fortune)世界 500 强中 97% 的公司已经在依赖这样的工具筛选申请人。SHRM 在 2022 年的一项调查中发现,42% 的受访组织(员工人数大于等于 5000 人)宣称在人力资源相关活动上,如招募和聘用等,使用了自动化技术或 AI 。
Gross 见识到了这些工具的潜在益处,但表示它们存在局限性。例如,尽管 AI 应用可以帮助完成简单任务,比如总结申请人的技能,但它们还无法捕捉人格和特质,而这些对招聘方也很重要。Gross 预测广泛使用 AI 会迫使求职者“寻找(新的)方法来展现自己的独特性。”
AI 应用逐步使得招聘中越来越多的环节自动进行。例如,和 Jennie Johnson 类似,类似领英这样的大型平台现在会自动将候选人的工作经验和技能同空缺的职位匹配。包括 ZipRecruiter 在内的一些平台还提供拟人化聊天机器人。新一代生成式 AI 甚至允许雇主将整个招聘流程外包给算法,包括搜寻候选人和进行预先设计好的面试。
Holbert 表示,Hyperleap 给 AI 搭建了一个人类人格,使其“更易于亲近”,这样人们可以“表现得更自然”。然而,英国萨塞克斯大学(University of Sussex)商学院的组织行为研究者 Zahira Jaser 表示,自动招聘过程中的不透明可能起反作用。
Jaser主张,不确定是否在和人类打交道会影响候选人在求职中的表现,也会阻碍招聘方准确评估候选者的正常行为。在研究 AI 面试的过程中,Jaser 发现,申请者如果认为自己在和线上机器人而不是一个人类聊天,往往表现得没那么自然。例如,他们倾向于固定地盯着屏幕,并避免手部动作。
Jaser 的研究表明, AI 面试经常会不利于第一代大学生、说话有口音、背景不够优越的候选人。Jaser 补充道,没有足够的人类监管,基于 AI 的招聘可能强化现有的偏见。“从成本控制的角度,采用这些系统可能很好,但是如果不加核实,可能造成多样性和包容性不足的问题,”她说。
AI 招聘工具的开发者常说他们的算法有潜力比人类更加客观——前提是这些工具的训练数据足够包容和多样。然而,英国剑桥大学(University of Cambridge) AI 伦理研究者 Eleanor Drage 表示:这样的说法是误导人的,表明其对真实世界的偏见运作缺乏理解。
Drage 表示,因为基于 AI 的招聘系统是基于过去的聘用趋势和实践训练的,这些数据常常存在偏见和歧视,它们会不可避免地在词语之间构建联系,重复同样的模式,就算公司明确排除了种族、性别这些因素。
Jaser 表示,尽管目前围绕 AI 招聘工具的宣传很高调,但很多人力资源部门还在等待 AI 证明它们的能力后才会采用它们。她补充道,除非它们被证明有效、公正和可靠,在那之前希望它们不会被大规模采用。
https://www.scientificamerican.com/article/ai-recruiters-have-joined-the-job-search-who-are-they-helping/
本文转载自公众号“科研圈”(ID:keyanquan)
凡本公众号转载、引用的文章 、图片、音频、视频文件等资料的版权归版权所有人所有,因此产生相关后果,由版权所有人、原始发布者和内容提供者承担,如有侵权请联系删除。
《环球科学》2024年5月新刊正在热卖
微信扫码关注该文公众号作者