机器人并不只抢走人类的工作,它们也开始向人类发放工作岗位了。参加招聘行业的任何一场活动,你都会发现空气中弥漫着像“机器学习”、“大数据”和“预测分析”这样的字眼。
在招聘中使用这些工具的理由很简单。机器人招聘者可以快速筛选数以千计的应聘者,效率远高于人类。它们还能做到更加公平。因为它们不会像人类那样带着有意或无意的偏见,它们会招聘到一批更多元化和择优录用的员工。
这是个很诱人的想法,但也是危险的。算法的中立并非是其固有,而是因为它们看到的世界只是“0”和“1”。
首先,任何机器学习的算法,并不会比它所学习的训练数据更好。以学术研究者科林·李(colin lee)今年向媒体发布的博士论文为例,他分析了44.1769万份成功和不成功的求职申请,建立了一个准确度达70%至80%的模型,可预测哪些应聘者会被邀请参加面试。该新闻稿称,这一算法潜在可用作工具,用于在筛选大量简历的过程中避免“人为错误和无意识偏见”。
但这样的模型会吸收最初招聘决定中的人为职场偏见。例如,上述研究发现,年龄因素可以在最大程度上预测该应聘者是否会被邀请面试,最年轻和最年长的应聘者最不可能成功。你可能觉得这挺公平,因为没有经验的年轻人干不好,但拒绝年长应聘者的常见做法似乎值得调查,而不是被编入程序和得以延续。
科林承认这些问题的存在,并建议最好从简历中剔除一些属性(例如:性别、年龄和种族)再加以使用。即使那样,算法仍有可能带有歧视。在今年发表的一篇论文中,索伦·巴洛卡斯(solon barocas)和安德鲁·谢尔博斯特(andrew selbst)这两位学者使用了一个案例,即雇主希望挑选最有可能长期留在工作岗位上的雇员。如果历史数据显示,女性雇员在工作岗位上停留的时间大大少于男性雇员(可能因为当她们有了孩子便会离职),算法就有可能利用那些性别指向明确的属性,得出对女性不利的结果。
应聘者住址与办公室之间的距离如何?这也可能是预测该雇员出勤率和在公司服务年限的不错的预测因素;但它可能也会在无意间歧视某些群体,因为不同的住宅社区有不同的种族和年龄特征。
这些现象提出了一个棘手问题:在理性和非有意的情况下,歧视是否错误?这是一个模糊的法律领域。在美国,根据“差别影响”(disparate impact)原则,貌似中立的雇佣实践若超出比例地伤害了“受保护阶层”,即为不合法,即便雇主并非有意歧视。但雇主若能证明该做法有很强的商业理由,就能为自己成功辩护。如果使用算法的意图仅仅是为相关职位招募最佳人选,那可能是个足够好的辩护理由。
话虽如此,那些希望拥有更多元化的员工队伍的雇主,显然不能想当然地认为只需把招聘交给电脑去做。假如这正是他们想要的,那他们也得把数据运用得更富想象力一些。
比如说,与其将他们自己的公司文化设为既定条件,进而寻找统计学上最有可能在该文化中成功的人选,不如找到相关数据显示,一支更为多元化的员工队伍在哪些情况下会成功。
如果机器学习唯一学到的只是你的过去,那么它将无法推动你的员工队伍走向未来。
三星GalaxyNote9SPen体验 到底怎么样
没有信号的偏远地区,安装手机信号增强器有用吗?
骁龙888机型已超20款,友商“刻舟求剑”,PPT产品望其项背
什么是容量扩展(Capacity Expansion)
电蜂厂家分享如何正确插接HSL-USB连接器?
我们已经可以向机器人求个职
一种简单而实用的UPS智能电源监控系统
超低失真全差动运算放大器THS770006
关于MES制造执行系统成功实施的经验分享
南安芯谷入驻项目集中签约仪式暨产业服务专题发布成功举办
凌科电气助力机械臂发展,一站式解析连接器解决方案
一种基于SG3525的大功率开关电源的设计与实现
聚焦HAOMO AI DAY:毫末MANA五大模型强势升级,助力感知架构跨代升级
Perl语言在代码自动生成中的应用实例
解析Golang定时任务库gron设计和原理
Google计划将其Pixel 4a和Pixel 5的生产转移到越南的工厂
模压功率电感上的裂纹问题
网络摄像机的网络协议
超400亿动力储能电池项目密集开工
恒温恒湿等环境试验箱常用的元器件-贝尔试验箱