• Caroline Bullock
    观点:机器人现在将面试你-人工智能可以通过消除偏见而彻底改变招聘方式 编者注:在中国偏见和歧视还不是一个重要被关注的话题,招聘广告依然可以肆无忌惮的写到仅要男性或者女性,35岁以下,985211研究生等等。在未来融入国际化的过程中,这个问题会日益突出,尤其是当你作为总部HR招聘国际化员工的时候,我想国内很多公司因为这个问题发生过各种的问题,推荐你阅读下这篇文章,介绍AI可以帮助我们什么。但是AI面试也会造成一些问题,比如之前一篇文章我们谈到:“AI面部识别会把黑人的犯罪倾向增加,而白人就会低。还有就是高质量的程序员喜欢看漫画。。。当然这个关联性是否真的,都是AI带来的问题。” 下面文章来自于英国的telegraph,作者是 Caroline Bullock   当一家制药公司的老板在他指定为他的私人助理的简历上潦草地写着“高跟鞋,红色口红,很好”的时候,这是一个让他感到困扰的总结。 Lucia Pagliarone在办公桌上发现了她的简历,当她带着她的老板去法庭以性别歧视为由,这将提供令人信服的证据。她赢得了官司,但这也清楚地提醒了我们,招聘决策可能会受到技能和资质以外的因素的影响,而这些因素会产生严重的影响。 被候选人的外表所左右并不是什么新鲜事;但在温斯坦之后,对歧视的敏感程度提高了,在招聘中处理偏见已经成为一项大生意,越来越多的机器人被要求恢复一些客观性。 在新型人工智能(AI)驱动的应用中,能够绕过物理属性并在没有情感或偏见的情况下快速分析候选数据的技术正在获得关注。在招聘公司Korn Ferry调查的1200名招聘专业人士中,近三分之二的人表示,人工智能已经改变了这一过程的实施方式,并相信这种技术会吸引更高水平的应聘者。   在LinkedIn的2018年全球招聘趋势报告中,受访者提到了节省时间和消除对年龄、种族、宗教或性别的偏见。 “算法正变得非常有吸引力,以消除偏见的风险,并将决定从面试官手中拿出来,这并不奇怪,”总部位于曼斯特的就业律师事务所Elas的顾问Emma O 'Leary说。 “人的偏见往往是潜意识的,但潜意识的歧视仍然是歧视。”在一个理想的世界里,管理者应该有健全的平等和多元化培训来克服性别歧视或种族主义的观点,但显然这种偏见仍然普遍存在,例如Lucia Pagliarone的突出部分。 如果在办公桌前接受R2D2的拷问,现实情况会有所不同。最常见的迭代是自动化工具,通常用于在招聘过程的早期阶段过滤掉无意识的偏见。 通过匿名分析候选人的性别、社会和教育特征,他们帮助创建一个公平的竞争环境,而预测分析则可以评估文化或技术是否符合特定的标准,并预测他们成功的可能性,这意味着更高的效率和生产力。   除了帮助清除外,人工智能还可以有效地瞄准那些通常被吓退的人。例如,英国的网络安全公司(英国网络安全公司)对其数据科学家职位空缺的反应缺乏女性的关注,转而求助于Textio的预测算法,这是一个利用机器学习识别职位描述中性别偏见语言的平台,并提出了语言上的调整。 该公司首席科学家麦克·麦金太尔解释说:“它突出显示了我们工作岗位上的一些措辞,比如‘雄心勃勃’、‘解决’和‘被驱使’等,通常都与男性特征有关,而男性特征实际上是在潜意识中产生了偏见。” “推荐的方法是让描述更具包容性,并吸引女性,比如‘有意义’、‘协作’、‘支持’和‘贡献’。” 这一简单的修正案对松下公司产生了巨大的影响,它证实了女性候选人的支持率上升了60%,甚至是女性候选人名单上的女性候选人。 “我们想要依靠一个在线平台来评估技能,从一开始就消除任何偏见,但是一个人是如何被人发现是非常重要的;我们是一家小公司,我们仍然想在面对面的面试中与一个人建立融洽的关系。 事实上,在最后阶段使用人工智能来完成工作之前,仍然是一个默认的方法,对于那些仍然觉得在招聘过程中有情商的人来说。不过,招聘专家Headstart的首席运营官加雷斯•琼斯(Gareth Jones)表示,这是一种妥协,意味着公司最终将面临最终的障碍。 不幸的是,人类天生就有偏见。所以,不管你在招聘渠道中积累了多少技术,如果你在某个时候有了面对面的交流,偏见的危险就会蔓延。 “就像人类一样,我们现在非常可怕地阻止我们的决定受到他人的肤色、年龄、外貌、口音甚至名字的影响。” 如果答案是完全消除人类干预,似乎大多数英国企业还没有准备好迎接这种信心的飞跃。在CRM开发者Pegasystems的调查中,近三分之二的受访者预计,未来10年将使用人工智能进行面试和筛选候选人成为标准做法,但只有30%的人相信算法会做出最终的招聘决定。普遍的观点是,最终,机器不能代替人对软技能和文化适应的判断。 然而,对于那些被一个活生生的人问过的人来说,五年后你会在哪里看到自己呢?一个完全自动的与机器人的交流是否会变得更加公式化? 菲利普说,技术流程转型公司的创新产品管理副总裁Sutherland Global说不。TASHA的任务是在公司领导的面试系统中进行自动对话,看起来很真实,很吸引人。他认为,求职者实际上更倾向于通过一个基于信息的聊天机器人来交谈,而不是一个糟糕的人际互动的替代品。也许这并不奇怪,这是一种与千禧一代最共鸣的方式。 他说:“一般来说,这一部门正在寻找求职者经验中的一个不同之处。”而且,大多数人只知道消息传递是一种沟通的方式,就像在短时间内进行的简短交流一样,这种交流更像是一种对话。事实上,它与性别、年龄和种族保持完全的中立,这使得事情的焦点集中在重要的事情上。   这是一个大胆的声明,因为一个算法是否能完全消除偏差仍然是一个争论点。对于每一个宣扬算法真实性的支持者来说,都有一个怀疑论者认为这个案例被夸大了。一个带有种族主义数据的机器人不是只会表现出与它有偏见的开发者相同的特征吗? “是的,算法是由人类提供的,所以它确实依赖于机器人背后的设计者和开发者,以确保他们注意到道德规范和招募合规规则,”他表示。 ”对我们来说是一大关注点避免文化偏见在我们设计一个聊天机器人对话之前我们离开北美泡沫和去一些偏远的地方听到各种各样的人的经历然后通知所使用的语言和内容(由chatbot)与地区差异也考虑在内。”   总部位于巴斯的人工智能初创公司Cognisess的首席科学官鲍里斯•阿尔特梅尔博士是另一位坚定的捍卫者。 “首先,与人工智能不同的是,人工智能没有固有的偏见,即使所有的数据都不是完全完美的,它所访问的信息量——在某些情况下,每10分钟就有300万个数据点——给了它比人类更大的优势。” 该公司的人工智能软件旨在模拟面试,并在早期的筛选过程和最后阶段都使用过,特别是在需要快速和大量招聘的情况下,比如在酒店行业。机器学习在多个性能领域对考生进行评估,而视频元素则对一组问题做出反应,然后由机器人进行评估,这被称为“深度学习”(DeepLearn),它将对每一帧基础上的面部表情进行分析。 如果一个公司需要热情和热情来面对客户的销售角色,那么DeepLearn将会在这个人的积极性和表现力的水平上立足。有趣的是,一个虚假的微笑不会减少它。 “这台机器可以检测微表情,”Altemeyer解释说。“这些情绪在脸上只显示了几分之一秒——它是如此之快,肉眼无法察觉,也无法伪装。” 这是一种取证的强度,为客户洲际酒店集团带来了丰厚的回报。这家酒店集团增加了招聘的多样性,并在使用该软件后,在评估过程中节省了25万英镑。 “从技术上讲,这个系统可以完全吸收,但我们不会提倡完全从流程中删除人员。”如果你思考人类回顾60以上视频采访一天,仍在绝对公正或尖锐时看到第一个对任何人来说都将是一个艰巨的任务,所以它是获得尽可能多的纯粹的数据,所以他们做出最好的决定。” 至少在目前,招聘人员还是被雇佣的。   以上由有道翻译提供支持,再次表示感谢!HRTechChina 倾情奉献。
    Caroline Bullock
    2018年03月25日