• Suresh Venkatasubramanian
    【观点】人力资源团队如何应对在工作场所使用人工智能的挑战 许多组织内的员工已经使用人工智能很长一段时间了。ChatGPT也引发了前所未有的讨论。但它并不是第一个人工智能工具。通过人类工程的自动化来简化工作流程已经不是什么新鲜事。当涉及到理解谁在使用人工智能工具,以及他们是如何使用这些工具时,很多人力资源领导者可能并不清楚。 人工智能工具本质上并不危险,也不会对你的业务造成威胁。但人本身是不可预测的,并不总是遵守 "巨大的权力带来巨大的责任 "这一格言。当我们开始使用新技术时,就要了解相关的风险,并建立明确的使用准则。 在这篇文章中,我们将探讨人类手中常见的人工智能问题,如: 你的员工在使用什么工具,他们是如何使用的? 公司如何保护他们的员工和相关的技术投资? 作为人力资源专业人士,你能做什么? 关于人工智能,我们还有什么不知道的? 你的员工在使用什么工具,他们是如何使用的? 让我们从ChatGPT开始。ChatGPT并不是人们正在尝试使用的唯一的人工智能工具。Jasper Chat、GetGenie和Midjourney已经被一些组织应用。我们可能还不知道这些工具中的哪一个会持续成功,但有一点很清楚:人工智能不会消失。从承认这一事实开始,我们就可以更好地理解后续的问题。 也许是最紧迫的问题是: 你的员工是只在个人设备上使用这些平台,还是在一系列设备上使用?安全风险可能会因答案的不同而大相径庭。如果你的员工在ChatGPT平台上粘贴专有或机密信息,他们可能会将组织暴露在一系列未知的危险之下。这就是像三星这样知名度高、地域分散的企业对员工使用人工智能施加限制的原因之一。三星称其举措是临时性的,强调了其正在调整关于使用人工智能的策略。在建议员工在与OpenAI工具的对话中 "不要分享任何敏感信息 "时,这家科技集团似乎在陈述一个明显的事实,即数据安全的隐患。 事实是,在我们知道用户和信息源之间互动的全部范围之前,谨慎的做法是积极主动。任何试图使用人工智能使用的企业都应该谨慎行事。 公司可以做什么来保护他们的员工和他们的技术投资? 你的员工是一项投资,尽管这个问题可能暗示着相互排斥性。事实上,员工才是组织最重要的资产。如果你把保护员工作为保护知识产权的一部分,可能更容易推进相关政策的实施。根据你的行业、公司规模对这些人工智能工具进行持续评估,使它们更适用于你的业务才是明智之举。 在最近接受CNBC采访时,白宫科技政策办公室前顾问Suresh Venkatasubramanian为寻求建立人工智能监督的公司给出了五点建议。他建议各组织专注于: 测试人工智能产品 确保数据隐私 防止算法中的偏见 要求用户披露自动化产品的信息 允许员工自主选择人工智能 也许你的组织可能足够多的可用的资源来同时实现这些优先事项。但是,你可以评估上述每个方面的风险所在。然后,向你的员工传达一个相应的临时计划。 作为一名人力资源专业人士,你能做什么? 如果你对为人工智能监督的概念感到不知所措,那是可以理解的。作为一名人力资源代表,你从事的是人的业务,而单单是人就可以产生大量的工作。但是,当涉及到工作场所的人工智能时,人力资源部门的工作不一定是评估或分析风险,而是通过教育,有时是执行,帮助缓解风险。这可能意味着在和员工沟通使用人工智能的条件方面发挥关键作用。目的是加强员工对正确使用人工智能和风险防控的理解。 对于人工智能的使用。你可以向员工坦露这些工具的普遍性甚至是吸引力,同时要教育员工让他们保持谨慎。 还有什么我们应该了解的? 当涉及到保护员工及组织的利益,免受人工智能的影响时,这就是导致许多商业行动的恐惧所在。对未知的恐惧可能是非常强大的。当像Geoffrey Hinton这样的人物,即所谓的 "人工智能教父 "和像谷歌Bard这样的技术背后的领导人物,都称这种情况是 "可怕的"的时候,会让更多组织和员工陷入思考。 当Geoffrey Hinton说他 "后悔自己一生的工作 "之类的话时,听起来可能很戏剧化。但他的戒心主要与目前缺乏监管,以及新技术的更新迭代过快有关。创新的速度超过了公众的接收速度,这就会导致一些恐慌。我们所知道的是,公司可以影响人工智能使用的 "道德",特别是当涉及到蓝海领域的竞争时。在对《纽约时报》的一篇采访文章的回应中,Hinton小心翼翼地澄清了他从谷歌离职的条件。他在推特上写道:"在今天的《纽约时报》中,许多人暗示我离开谷歌是为了能批评谷歌。实际上,我离开是为了让我能够谈论人工智能的危险,而不考虑这对谷歌的影响。谷歌的行为非常负责任的"。Hinton和其他人认为,为了取得正确的道德平衡,开发人工智能的公司不仅要考虑他们的技术可能对世界产生的影响,还要考虑人们如何正确的使用这些技术。随着对人工智能技术的持续研究及解读,新兴技术毕将成为人类的有力助手。 文章参考:Predictiveindex.com
    Suresh Venkatasubramanian
    2023年05月24日