• 数据滥用
    长篇经典:人力资本分析和AI的四个信任的维度-Josh Bersin 编者注:这是一个长篇的文章,谈AI和People Analytics在工作场所中的几个核心的问题:信任的四个维度:隐私、安全、偏见、人的影响。值得思考! 尤其是HR开始新的数字化时代。请记住,信任是我们今天业务中最重要的事情之一。如果发生不好的事情,你不仅会失去工作,而且对公司声誉的损害可能是巨大的。 原标题:People Analytics and AI in the Workplace: Four Dimensions of Trust 作者:Josh Bersin   以下由AI翻译完成,仅供传递信息,原文请访问文末 AI和People Analytics已经很火了。正如我过去所写的,工作场所已成为一个高度数字化的地方。公司使用调查和反馈工具来获取我们的意见,新工具监控电子邮件和我们的通信网络(ONA),我们捕获有关旅行,位置和移动性的数据,组织现在拥有关于我们的健康,健康和健康的数据。 此外还增加了一个新的数据流,其中包括视频(每个视频会议都可以录制,超过40%的工作面试被录制),音频(记录会议的工具可以感知心情),以及识别面部的图像识别。  在人力资本分析的早期,公司捕获了员工数据,以衡量控制范围,绩效评级分布,继任管道和其他与人才相关的主题。今天,随着所有这些新信息进入工作场所(几乎在工作中点击的任何地方存储在某个地方),人员分析的领域变得非常个性化。 虽然我知道人力资源专业人员认真对待道德和安全工作,但我想指出一些我们需要考虑的道德问题。 数据滥用的风险 首先,让我给你一点动力。虽然您可能会从人力资源软件公司购买一个出色的新员工参与工具或“保留风险预测器”,但这些新系统会带来风险。当您购买系统时,您实际上不知道它是如何工作的,因此它所做出的每一个决定,建议或建议都会成为您组织的问题。 例如,假设您使用Pymetrics,HireVue(编者注:视频面试的工具)或其他高级评估技术来评估求职者。虽然这些供应商努力消除工具中的种族,性别和代际偏见,但如果您实施这些偏见并且候选人起诉您,您的公司应负责任。这种情况一直都在发生。(了解亚马逊如何无意中创建了自己的性别偏见的招聘系统。) 我就遇到过这种事情。多年前我们邀请一名秘书职位的候选人面试,但是我当天不得不离开办公室。候选人来到办公室,我们的办公室经理告诉她我们必须重新安排面试。她立即​​起诉我们歧视,因为她是受保护阶层的成员。我感觉很糟糕,我们付出了她的时间,但我能看出她的感受。 我要指出的另一个例子。一家公司从他们的HCM系统打开“保留预测器”告诉我,他们的经理看着这些评级,并在看到飞行风险时做各种奇怪的事情。一些管理人员实际上不再与这些人交谈并减少他们在工作中获得的支持,因为我猜他们认为“他们正在考虑离开。”显然,这不是良好的管理,但如果我们不好好利用这些数据,人们可以错误地使用它。 当然,还有其他可能出错的事情。如果您可以访问员工健康数据并使用它来评估或讨论员工的表现,我确信您处于合法危险之中。(我不是律师。)如果您泄漏或无意中发布了员工健康数据,则违反了HIPAA规则。  有很多很多地方可以解决问题。只要看看Facebook,Equifax,万豪以及其他所有认为他们都在保护数据的大公司的情况。人们犯错误; 员工做坏事; 我们必须保护数据,算法和管理行为。 随着人工智能变得越来越普遍,我们不再看到数据,而是看到“轻推”或“推荐”。如果“轻推”在某种程度上有偏见而员工变得心烦意乱怎么办?你知道这个软件是如何运作的吗?你可以回过头来确保它没有根据一些不正确的标准进行区分吗?  最后,如果您是分析师并且自己进行分析,您是否准备好在攻击下捍卫您的调查结果和建议?如果有人挑战您的发现并希望按年龄,性别,种族,甚至地点或季节了解数据 - 您是否已准备好确保其有效和可靠?我知道这是我们可以用统计工具做的事情,但我们必须要小心。 请记住,信任是我们今天业务中最重要的事情之一。如果发生不好的事情,你不仅会失去工作,而且对公司声誉的损害可能是巨大的。 我们应该做什么? 我在这个领域做了很多工作,包括花费相当多的时间与IBM,O'Reilly的人们,当然还要与许多人力资源领导者,人员分析领导者和供应商交谈。为了帮助您通过人员分析了解道德问题,让我提出以下框架。 首先,您使用的数据和算法是否公平?它是否准确反映了您想要的性能或生产率数据,而不排除,区分或无意中偏差结果?这很棘手,我将在下面讨论。从这个框架可以看出,道德有两个方面。 二,数据系统和算法安全吗?我们是否在保护隐私,机密性和安全性?谁有权访问,我们如何审核其在公司中的使用和路径? 这是IT中一个众所周知的问题,但现在我们必须处理人力资源问题。 当您查看这两个维度时,您基本上会发现有四个维度需要信任。 要考虑的第一个道德问题是隐私。如上图所示,Facebook,CVS,雅虎等公司在这里遇到了麻烦。当员工加入您的公司时,他们会授予您收集大量数据的权利,但我们作为雇主无权披露此数据,共享或将其与个人识别的信息相关联。 1.隐私 在GDPR规则中,如果员工要求,组织也必须“忘记”这些数据,因此需要考虑一些重要的业务实践。如果你看一下上面的一些问题,他们都会处理披露和保护问题。谁可以访问这些数据并让这些人接受过隐私规则和程序方面的培训? 在Deloitte,所有顾问都会参加强制性的隐私年度课程,我们的PC被扫描,我们接受培训,不会以可以披露的形式存储任何客户信息。就人力资源而言,我们需要告诉员工我们正在收集哪些数据,并确保他们理解这些数据是用于积极目的的。  虽然我们中的许多人可能会觉得在社交媒体和其他地方分享我们的个人故事很舒服(我个人不这样做),但其他人则更加私密 - 因此即使是内部员工目录也可能存在问题。一家大型科技公司最近告诉我一个关于工程师的故事,该工程师创建了一个内部社交网络,该网络显示了曾在哪个办公室工作的员工以及他们过去的工作。员工们很不高兴“发现”这个网站,因为他们没有事先征求意见,抗议其使用。该员工只是一名试图让公司成为更好工作场所的工程师,不得不关闭系统。 并且捕获的数据量不断增加。例如,L&D中增长最快的领域之一是虚拟现实(现在称为沉浸式学习)。VR程序捕获所有类型的个人表现数据 - 您的注意力范围,眼球运动以及您应对压力的能力。Pymetrics评估测量您的冒险能力和认知处理。这种类型的数据可能对目的有用(培训,工作适合),但如果不保密,也可能被滥用。 告诉别人您正在做什么,解释您的“选择加入”政策,并确保您为所有员工数据制定了良好的隐私政策。(GDPR规则要求您获得此类同意,并且您还允许员工查看您收集的数据。) 2.安全 隐私的姐妹是安全。数据是否存储和保护在其他人无法找到的地方?您是否拥有密码策略,加密和其他数据保护措施,以便员工无法将数据带回家,将其发送给第三方或意外将其发布到互联网上?这些是所有公司必须处理的IT问题,当我们收到诸如薪资,工作经历,医疗保健数据和其他个人信息等敏感信息时,我们必须妥善保护。 在欧盟,这已成为一项法律。GDPR规则之一是需要创建数据保护官并设计您的系统以进行数据保护。如果发现贵公司在这些地区失效,您可能会被罚款高达收入的2%,这是一个巨大的风险。 3.偏见 我们在People Analytics中遇到的第三个也是最困难的(也是最新的)问题是偏见。无论您是自己分析数据还是从供应商处购买AI工具,我们都必须记住所有算法系统都基于现有数据。如果现有数据存在偏差,则预测和建议将存在偏差。 这是一个非常难以解决的问题,许多组织正在努力解决这个问题。(IBM Research有关于此主题的精彩视频。)例如: 试图评估公平薪酬的系统会将员工与同行进行比较,但可能无法理解种族,地点和年龄等问题 预测保留的系统可能会歧视少数群体或因文化原因离开公司的其他人 评估适合工作的系统可能会使嵌入招聘历史的旧的,有鉴别力的招聘实践制度化 使用组织网络分析来识别绩效的系统可能没有意识到性别或年龄在信任和关系中起着重要作用 预测表现优异者的系统将偏向现有的高评价个人(可能是白人)。 您购买或构建的每个预测分析系统都会内置偏见。(“偏见”一词的意思是“基于过去的影响”,这正是AI试图做的事情。)  您可以采取的减少偏见的最佳方法是监控和培训您的分析系统。换句话说,查看它所做的预测和建议,并检查结果是否有偏差。亚马逊发现其招聘机器人偏向于女性。IBM通过“机器人培训师”不断监控其内部薪酬推荐引擎和在线管理教练(均由Watson提供支持),他们不断调整系统以应对新情况。 我记得几年前一家公司告诉我,中国的薪酬政策效果不佳,中国的工资增幅是美国的两倍。您的系统可能不知道这一点,因此它可能会偏向于中国的加薪或过度偏向美国的加息。这些不一定是不道德的决定,但这种偏见会伤害你的公司。 供应商非常关注这一点。Pymetrics对此非常认真,公司现在开放其算法来减少偏见。其他供应商应该这样做。 当我们巧妙地训练历史数据的算法时,我们在很大程度上只是重复过去。......我们需要做更多,这意味着检查数据中嵌入的偏见。 - 凯茜奥尼尔,“数学毁灭武器” 你能做什么?监控,评估和培训您的数据驱动系统。例如,IBM率先使用人工智能来帮助改善职业发展,管理实践和薪酬。该公司定期审查其基于Watson的人力资源预测员,并培训他们更聪明,更少偏见。(IBM告诉我,他们基于AI的人力资源聊天机器人现在可以在问题答案中提供超过96%的员工满意度。) 可解释,透明或可信的AI 人工智能社区有一个重大的变化,就是让系统“可以解释”。例如,为什么系统会推荐这个工资变化呢?如果您了解预测的原因,您可以更智能地对其进行操作。 4.人的影响力许多供应商正在构建检测AI偏差的工具,包括IBM的偏差检测云服务,来自Pymetrics的Audit AI。麻省理工学院的研究人员现在发布了自动偏置检测  以及  消除AI偏差而不会降低精度的方法。作为人力资源系统的买家,您应该询问这些功能。 信任的第四个维度可能是最重要的。您对捕获此数据的意图是什么? 正如GDPR规则  明确指出的那样,捕获数据以“看看它可能告诉我们什么”是不行的。如果员工认为他们因错误的原因受到监控,那么影响将是负面的。因此,我相信您应该坐下来记录为什么要捕获给定的数据流并清楚地为项目设定目标。Facebook显然没有在他们的业务中做到这一点,他们仍然在恢复声誉受损。 要问的最大问题是:为什么要实施这种特定的分析或AI工具?它会帮助人吗?还是用于监控或秘密进行绩效评估?   大多数供应商都有最好的意图。 Phenom People的新人才体验平台使用AI帮助求职者找到合适的职位空缺,帮助内部求职者找到合适的工作,并帮助聊天机器人向您提出智能问题,以了解您的工作需求。 Glint的新经理Concierge使用AI推荐行为变化和课程,以帮助您成为更好的领导者。ADP的Compass工具和CultureAmp的Zugata也是如此。Humu正在为团队和运营绩效做这件事。 来自IBM的Watson Candidate Assistant使用您的简历来确定您作为求职者的技能,并找到最佳工作,大大提高招聘质量和聘用时间。 EdCast,Valamis,Fuse和Volley正在使用AI推荐学习内容,BetterUp使用AI为您找到最好的教练。 Oracle,Workday和SuccessFactors使用AI来实现许多功能。Oracle HCM建议调整工资,甚至根据您自己的角色和行为自定义您看到的屏幕,从而简化系统本身。 像Spring Health这样的供应商现在使用AI来诊断您的心理健康并推荐正确的提示,辅导员或医生。 事实上,我很清楚所有人力资源技术供应商都在推动人工智能对人们的积极影响。然而,作为买家,我们必须确保我们能够很好地使用它。 举个例子,这里有一些要避免的事情: 不要使用监控数据秘密通知绩效评估。例如,一家金融服务公司使用一种热量和运动检测器来确定谁进入办公室。雅虎着名审查了VPN日志,以了解人们何时在家工作以及何时没有人工作。这类活动会损害员工的信任感,几乎总会导致糟糕的决策。 不得将任何形式的福利数据用于法律允许的任何其他目的。将某些健康数据用于保险定价是合法的:将其用于继任计划,绩效评估或任何其他形式的员工辅导是不合适的。 不要将训练数据(程序性能)用于性能评估。这不仅会降低信任度,还会使您陷入法律危险之中。 不要跨越个人和专业数据之间的界限。如果您正在跟踪员工手机中的数据,请确保您不会授予他人访问个人信息的权限。虽然该设备可能归公司所有,但侵犯隐私会让您陷入困境。 事实上,在大多数大公司中,在开始捕获数据之前应该进行法律审查。您的项目是否符合GDPR指南,HIPAA规则和其他机密性保护? 还要记住,基于AI的调度和工作供应问题也是有风险的工具。例如,万豪公司实施了一个新的系统来安排管家,并结束工会劳资纠纷,因为工人受到不公平对待。该系统正在推动管家疯狂地从一个房间跑到另一个房间。换句话说,它不是为了“帮助人们”,而是为了“帮助公司”。 我可以给出的简单建议是:将您的分析程序专注于对人产生积极影响的策略。如果您正在跟踪人员以衡量工作效率,并且数据将用于改善工作,那么您就会朝着正确的方向前进。如果您使用这些数据来淘汰低绩效企业,那么您可能违反了公司的管理原则。 底线:使用良好的意识,考虑道德是一个“安全”问题 越来越多的公司聘请了“ 首席道德官 ”和其他工作人员来帮助完成这些项目。其他人正在创建“道德使用委员会”,以确保所有分析项目都经过仔细评估。所有这些都是重要的想法。  就像多样性和包容性更像是“安全计划”而不是“培训问题”,数据的道德使用也是如此。最多元化的组织使用指标和委员会来确保他们的D&I战略得到加强。我们必须在道德使用员工数据方面做同样的事情。  当您启动新的分析程序时,您需要一份需要考虑的问题清单。问问自己“如果这个节目出现在纽约时报的头版上会怎么样?”这会损害公司的声誉吗? 如果答案是肯定的,你需要做更多的功课。 最后,让我们以数据为导向使用消费者体验。暴露大量消费者数据的公司遭受了可怕的打击。 今天,信任是我们拥有的最重要的商业资产之一。认真对待并确保您努力使管理数据驱动朝着正确的方向发展。你会很高兴的。   原文来自:https://joshbersin.com/2019/05/the-ethics-of-ai-and-people-analytics-four-dimensions-of-trust/ 再次说明,翻译来自AI,仅供参考学习~
    数据滥用
    2019年07月29日