• 算法决策
    工作场所中AI决策带来的风险和思考 原文标题:Research is proving that leadership stereotypes are too stubborn to be eliminated by AI 新西兰总理哈辛达·阿尔德恩和旧金山市长伦敦·布里德等女性领导人因面对COVID-19大流行迅速采取行动而获得表彰。 但是,男性被推选为世界各地的政府领导人的人数要大得多。 这种差距并不仅限于政治领导。2019年,《福布斯》评选出100位美国"最具影响力领袖",其中99位是男性。 缺乏多样性并不限于性别。一项针对非盈利性行业首席执行官的调查发现,87%的被调查者自认为白人。 作为领导中心的执行和学术主任,我研究就业歧视和包容。我见过许多组织希望有一个过程,从识别领导者中消除偏见。投资者希望投资于拥有多元化劳动力的企业,员工希望在不同的组织中工作。 我的研究表明,依靠数据分析来消除人类在选择领导者时的偏见是无济于事的。 AI不是万无一失的 雇主越来越依赖算法来确定谁通过应用程序门户进行面试。 正如劳工权利学者Ifeoma Ajunwa所写的那样,"算法决策是21世纪的民权问题” 2020年2月,美国众议院教育和劳工委员会召开了题为"工作的未来:保护数字时代工人公民权利"的听证会。 雇佣算法创建一个不提供透明度且不受监视的选择过程。从申请程序中被打动的申请人——或者正如Ajunwa所指的,"算法上是黑盒子的"——几乎没有法律保护。 例如,据报道,2014 年,亚马逊开始开发一个基于计算机的程序,以确定提交工作的最佳简历。其理念是自动化流程并提高效率,就像它处理业务的其他方面一样。 然而,通过使用计算机模型来观察过去10年提交的简历的模式来选择最好的,计算机自学了从男性简历被推荐为包括"妇女"一词的简历,如在妇女俱乐部或组织中。据报道,亚马逊随后放弃了该项目。 尽管历史偏见往往在不经意间内置于算法中并反映人类偏见,但菲利普·尼科尔斯最近的学术研究已经查明了可能故意操纵底层算法以造福第三方的另一个威胁。 无意或无意地检测算法偏差的能力是极其困难的,因为它可能发生在 AI 开发的任何阶段,从数据收集到建模。 因此,尽管组织可以基于对领导特质的研究和分析获得领导力分析工具,但白人男性领袖的刻板印象根深蒂固,有时甚至会由那些自己多元化的人长期存在。不能仅仅通过开发选择引线的算法来消除这一点。 面试后 构建这些算法的数据呈指数级增长。 一家视频面试服务,HireVue,自夸其能够在一次30分钟的面试中检测数千个数据点,从句子结构到面部动作,以确定与其他申请人的就业能力。 想象一下,当前雇主有机会不断收集数据,以确定其员工的领导潜力和晋升。例如,工作场所的摄像头可以全天收集面部表情,尤其是在进出工作场所时。 数据越来越多地不仅在工作日或工作期间收集,而且在下班期间收集。在最近的一篇文章中,Leora Eisenstadt教授确定了工作场所计划,这些程序收集了大量有关员工从Facebook帖子和 Fitbit 使用中的下班行为的数据,例如,对将来使用数据没有透明度。然后,雇主们利用这些数据来绘制相关性来预测工作场所的成功。 正如艾森施塔特指出的,大多数工人"可能会因为这样一种观念而感到恼火,即他们对啤酒的品味、对独立摇滚的热爱和对《华盛顿邮报》的偏爱,以及数千个其他变量,都可以用来决定职业发展机会、领导潜力和未来职业成功。 然而,这种潜力今天存在于工作场所,法律根本无法赶上那些想知道其雇员晋升和领导力投资的雇主收集和利用的大量数据。 在许多情况下,员工同意收集元数据,而没有彻底了解这些数据可以揭示的内容,以及如何使用它来帮助或阻碍职业生涯。 朱莉·曼宁·马吉德是IUPUI商法教授
    算法决策
    2020年06月07日