• 罚款
    停止空谈,开始行动:人工智能监管即将到来,您需要做好准备 在过去一年里,随着对生成式人工智能的兴趣激增,人工智能被炒得越来越热,世界各国政府纷纷制定计划来监管这项技术也就不足为奇了。 虽然企业和人工智能公司都知道监管即将到来--他们怎么会不知道呢?- 但许多人对未来的复杂性准备不足。 随着监管法规即将在世界各地的司法管辖区出台,现在是时候停止谈论监管法规的模样,开始行动起来了。 对于在欧洲运营的公司来说,拟议中的欧盟人工智能法案迫在眉睫。这一法律框架将大大加强欧盟当局监控人工智能发展的权力,并有可能对违反规则的公司处以罚款。根据世界经济论坛的分析,该法案的核心是一个分类系统,用于评估人工智能发展对 "人的健康和安全或基本权利 "造成的风险。 虽然实施期为两年,但欧盟人工智能法案包括对违规行为的罚款,这对尚未开始为新法规做准备的公司来说是一个真正的威胁。这些罚款总额最高可达 3000 万欧元或上一财政年度全球年营业总额的 6%,以较高者为准。这些都是不可轻视的制裁措施,因此缺乏准备就更加难以理解了。 不做准备,准备失败 为什么这么多公司没有为即将到来的监管做好充分准备?部分原因在于监管机构。虽然我们已经有了一些指导,就欧盟人工智能法案而言,也有了一个粗略的结构,但我们不知道的东西仍然很多。这仍然是一个不断变化的目标,使得合规部门很难理解他们需要采取哪些措施来确保自己符合新规则。 可以肯定的是,由于人工智能的发展速度太快,监管机构也很难做到这一点。这意味着很难制定出不妨碍创新的实用立法。 此外还有其他一些问题,比如缺乏对人工智能有深刻理解的政策专家,以及目前没有技术产品可以让公司在继续专注于核心业务的同时保持合规。这两个因素都有可能改变,但就目前而言,企业还没有遵守人工智能法规所需的工具。 我们不要假装这一切都很容易。现有法规(如 GDPR)和特定行业法规(如软件作为医疗设备(SaMD)的要求)之间存在着复杂的相互联系,所有这些都需要理解并纳入业务决策,但没有任何一项法规能让公司轻松合规。不可避免的是,随着法规的推出,无论是在人工智能特定法规方面,还是在现有的特定行业准则如何适应人工智能方面,都会出现违规和问题。 不合规的风险 根据欧盟《人工智能法》,严重违规的公司将被处以高达 3000 万欧元的罚款,不过监管机构一开始可能会宽大处理,以解决初期出现的问题。尽管如此,这是企业不可忽视的风险。 在规模较大的企业中,存在着停滞不前的危险,即认为不合规的风险太高而不采取行动,因此什么也不做。原地踏步意味着竞争对手可以从单个公司那里获得市场份额,但如果监管阻碍了公司创新,整个生态系统就会面临更广泛的风险。如果企业因担心违规而无法合作,它们就无法获取必要的数据来制造有可能改善世界的人工智能产品。 最后,如果企业没有为人工智能监管做好准备,就会带来更广泛的社会风险。人工智能安全中心(Center for AI Safety)的研究人员最近发表了一篇关于人工智能灾难性风险的公开论文,指出了四类风险。 首先是 "恶意使用",即个人或团体故意使用人工智能造成伤害。第二类是 "人工智能竞赛",竞争环境迫使行为者部署不安全的人工智能,或将控制权让给人工智能。第三是 "组织风险",强调人为因素和复杂系统如何增加灾难性事故的发生几率。最后是 "流氓人工智能",它描述了控制比人类聪明得多的代理人的固有困难。 这听起来可能很可怕,但这强调了加强人工智能监管的原因,以及公司确保做好准备的紧迫性。 人工智能公司能做些什么? 虽然前景令人生畏,但仍有时间为人工智能监管做好准备。工程师、数据监护人和企业主必须确保他们了解即将发生的事情,以及围绕人工智能安全和隐私的更广泛风险,并愿意推出能够让开发人员保持合规的产品。 尽管为即将到来的人工智能法规做准备似乎是一个令人生畏的前景,但好消息是,现在仍有时间来组织和遵守法规。这一过程中的关键利益相关者--工程师、数据保管员和企业主--不仅需要了解即将出台的法规,还需要积极主动地实施有助于合规的解决方案。以下是企业可以遵循的基本步骤: 优先考虑数据隐私和知识产权: 机器学习模型可能会在不经意间 "记忆 "它们所训练的数据,从而引发严重的隐私问题,尤其是在涉及敏感个人信息的情况下。识别并降低这种风险以保护数据隐私和知识产权至关重要。 实施安全的机器学习模型: 机器学习模型无法避免可能危及数据安全的恶意攻击。采用人工智能的公司必须保持警惕,只使用安全、经过审核的模型。 建立健全的数据管理: 数据保管人应实施管理框架,以保持对模型训练中使用的数据集的控制。这包括为在这些数据集上部署哪些算法制定指导方针,确保与更广泛的合规要求保持一致。 构建人工智能产品的公司需要考虑围绕安全性、偏差、安全性和稳健性等领域降低产品风险。要做到这一点,它们必须确保在具有代表性和细粒度的真实世界数据(包括目前尚未使用的敏感数据)上训练模型。 同样重要的是,他们要通过注册模型、提供版权信息摘要以及质量管理和文档,使自己的行为透明化。这样做可以在开发人工智能模型的过程中支持问责制和提升标准。 归根结底,还是数据安全问题。有了对数据的有序、私密和安全的计算访问,就有可能在不牺牲安全性或合规性的情况下打造创新的人工智能产品,而最关键的是要符合监管要求。 不管你愿不愿意,监管即将到来。为了实现创新并打造安全的产品,我们需要引入工具,让公司能够遵守这些新规则。这对每个人都有好处。 文章来源:eu-startups
    罚款
    2023年09月19日
  • 罚款
    【美国首个立法】招聘算法反偏见法—美国纽约开始执行新的法律 摘要: 纽约市开始执行一项新法律,即本地法律144,该法律要求使用算法进行招聘、雇佣或晋升的雇主提交这些算法进行独立审计,并公开结果。该法还要求公司披露他们使用的算法以及不同种族、族裔和性别的候选人可能从这些算法中获得的平均分数。不遵守规定的公司将面临处罚。该法适用于在城市中执行或申请工作的任何人。然而,批评者认为该法并未做得足够多,可能只被解读为覆盖一部分招聘算法。 经过数月的延迟,纽约市今天开始执行一项法律,该法律要求使用算法进行招聘、雇佣或晋升的雇主提交这些算法进行独立审计,并公开结果。这项在全国范围内首创的立法(纽约市地方法 144 Law 144),还要求使用这类算法的公司向员工或求职者进行披露。 至少,公司必须公开的报告必须列出他们正在使用的算法,以及不同种族、族裔和性别的候选人可能从所述算法中获得的“平均分数”——以分数、分类或推荐的形式。它还必须列出算法的“影响比率”,该法律将其定义为特定类别(例如,黑人男性候选人)中所有人的平均算法给定分数除以最高得分类别中人们的平均分数。 未能遵守规定的公司将面临第一次违规罚款375美元,第二次违规罚款1350美元,第三次及任何后续违规罚款1500美元。每天一家公司使用不符合法律的算法,都将构成单独的违规行为——就像未能提供足够的披露一样。 重要的是,地方法律144的范围超出了纽约市的工人。只要一个人在城市里做工作或申请工作,他们就有资格在新法律下得到保护。 许多人认为这是迫在眉睫的。Applied的首席执行官Khyati Sundaram指出,特别是招聘AI有可能放大现有的偏见——在此过程中加剧就业和薪酬差距。 “雇主应避免使用AI独立评分或排名候选人,”Sundaram通过电子邮件告诉TechCrunch。“我们还没有达到一个地方,那里的算法可以或应该被信任,自己做出这些决定,而不是反映和延续已经存在于工作世界的偏见。” 不必远寻就能找到偏见渗入招聘算法的证据。2018年,亚马逊废弃了一个招聘引擎,因为发现它对女性候选人有歧视。2019年的一项学术研究显示,AI在招聘中存在反黑人偏见。 在其他地方,算法被发现根据是否戴眼镜或头巾等标准给求职者分配不同的分数;因为有黑人名字、提到女子学院,或者使用某些文件类型提交简历而惩罚申请人;并且对那些由于身体残疾而限制与键盘互动的人造成不利。 偏见可以深入人心。2022年10月,剑桥大学的一项研究暗示,声称提供客观、基于功绩的评估的AI公司是假的,认为去除性别和种族的反偏见措施是无效的,因为理想的员工历史上受到他们的性别和种族的影响。 但是风险并没有减缓采用的步伐。根据2022年2月人力资源管理协会的一项调查,近四分之一的组织已经利用AI支持他们的招聘过程。在拥有5000名或更多员工的雇主中,这个比例甚至更高——42%。 那么,雇主到底在使用什么形式的算法呢?这是多种多样的。一些更常见的是根据关键词对简历和求职信进行排序的文本分析器。但也有聊天机器人进行在线面试,以筛选出具有某些特征的申请人,以及设计用于从他们的语言模式和面部表情预测候选人的问题解决能力、才能和“文化适应性”的面试软件。 事实上,招聘和招聘算法的范围如此之广,以至于一些组织不认为地方法律144走得够远。 纽约州美国公民自由联盟的纽约分支机构NYCLU认为,该法在为候选人和工人提供保护方面“远远不够”。NYCLU的高级隐私和技术策略师Daniel Schwarz在一份政策备忘录中指出,地方法律144可能会被理解为只覆盖一部分招聘算法——例如,排除了将视频和音频面试的文本转录的工具。(鉴于语音识别工具有一个众所周知的偏见问题,这显然是有问题的。) “……提出的规则[必须加强,以]确保广泛覆盖[招聘算法],扩大偏见审计要求,并向受影响的人提供透明度和有意义的通知,以确保[算法]不会通过数字方式绕过纽约市的反歧视法,”Schwarz写道。“候选人和工人不应该需要担心被歧视性的算法筛选。” 与此同时,该行业正在进行初步的自我监管努力。 2021年12月,数据与信任联盟(Data & Trust Alliance)成立,该联盟旨在开发一个评估和评分系统,以检测和对抗算法偏见,特别是在招聘中的偏见。该组织一度包括CVS Health、德勤、通用汽车、Humana、IBM、万事达卡、Meta、耐克和沃尔玛等成员,并获得了大量的新闻报道。 毫无疑问,Sundaram支持这种方法。 “而不是希望监管机构赶上并遏制招聘AI的最糟糕的过度行为,这取决于雇主在使用AI进行招聘过程时保持警惕,并谨慎行事,”他说。“AI的发展速度比可以通过的法律来规范其使用的速度更快。最终通过的法律——包括纽约市的法律——可能会因此变得非常复杂。这将使公司面临误解或忽视各种法律细节的风险,反过来,会看到边缘化的候选人继续被忽视。” 当然,许多人会争辩说,让公司为他们正在使用或开发的AI产品开发一个认证系统从一开始就是有问题的。 虽然在某些领域不完美,但批评者认为,地方法律144确实要求审计由独立的实体进行,这些实体在测试的算法的使用、开发或分发中没有参与,也没有与提交算法进行测试的公司有关系。 地方法律144最终会影响变革吗?现在还太早说。但是肯定的是,其实施的成功或失败将影响到其他地方的法律。正如Nerdwallet最近的一篇文章所指出的,华盛顿特区正在考虑一项规定,该规定将使雇主负责防止在自动决策算法中的偏见。在过去的几年里,加利福尼亚州引入了两项旨在规范招聘中AI的法案。去年12月底,新泽西州引入了一项法案,该法案将规范招聘决策中AI的使用,以最大程度地减少歧视。
    罚款
    2023年07月06日