你未来的老板可能是一台机器

来源:信传媒 作者: 日期:2025-02-09

风险在于,老板对提高劳动力的渴望渗透到员工的私人生活中,员工的个人隐私与身体自主权受到前所未有的侵犯。 除了标准的屏幕监控软件和生产力工具,人工智能还促成了影集《黑镜》(Black Mirror)般的新一代技术,比如“心情与情绪分析”、脸部识别与语音监控软件。 员工监控软件Teramind是其中最糟的一款,老板可以借由控制员工设备的摄影机和麦克风,观看或偷听员工在工作场所、甚至家中的对话。 更具体地说,一旦发生违规行为,公司可以记录违规行为前后五分钟的内容,包括每次键击及完整的录像。 此外,工作场所的穿戴装置也可记录员工的健康统计数据,持续监控个别员工,以确保他们能集中注意力且不会压力过大。 预测式人工智能工具使用收集到的员工数据为员工进行排名,并为不同的个人提供风险评分。 人力资源分析工具Perceptyx就是一个例子,它会制作“脆弱性评分”,衡量员工加入工会或离开公司的可能性。 Perceptyx拥有一系列工具,其中包括“感官”(Sense)这款“随显式员工监听产品”。 该软件根据个别员工的语音录音分析,产生“敬业度指标”评分,并承诺“透过预测建模以减少不必要的人员流动”。 人工智能驱动的文字分析软件也可以监控员工的电子邮件与Slack (团队沟通平台)信息,以评估职场文化与员工对公司的归属感。 我们很快就可能进入一个局面:每个人的细微脸部表情或语气变化都会被记录下来,直接送到人工智能驱动的评分系统,根据员工的情绪与满意度评分。

从筛选到面试,使用人工智能就不会有偏见?

人力资源团队也广泛采用人工智能进行招募与聘用。 人工智能系统可以被运用在招募过程的不同阶段,从筛选履历到建立候选名单、面试、评估性格测验与评价求职者等。 目前,美国有35%至45%的公司将人工智能用于招募人才,此举让这些公司在2022年节省了40%的招聘成本。 人工智能工具能自动扫描应用程序中的关键词与词组,节省人力资源的时间与金钱。 人工智能也不会专注于求职者的性别、种族或年龄,足以消除人为偏见的因素。 然而,其中许多说法都是虚幻的,因为软件本身已经证明会表现出明显的偏见,进一步让求职者的体验去人性化。

亚马逊提供了另一个重大案例,警示人工智能招募的危险性。 2014年,苏格兰的亚马逊工程师写了一个程序,可以自动为求职者评分,向招募人员提供最佳求职者名单。 2015年,团队意识到这个软件对女性求职者存有偏见,特别是软件开发人员与工程师等技术职位。 这种偏见是因为之前成功申请的求职者资料被用于训练资料,而这些数据的性别失衡、偏向男性所导致。 根据过去的例子,算法推断男性求职者更可取,并将包含“女性”字眼(如“女子足球队”)和毕业于女子学院的应征者降级。 当算法在履历中搜索特定的单词与词组,它也偏好“执行”与“捕获”等移动导向的语句,而男性求职者更可能使用这些语词。 在尝试修正这些偏差未果后,亚马逊于2018年舍弃了这个计划。

剑桥大学的研究人员研究了人工智能在招募过程中消弭各种种族与性别偏见的潜力,发现软件能达到的效果有非常大的局限性。 研究人员提出相当有说服力的说法,表示这类工具揭露了“对种族与性别的普遍误解”,将种族与性别视为个人的潜在可移除属性,而非塑造组织与社会运作方式更广泛的权力系统。 正如亚马逊的案例所示,种族化与性别化的系统会影响个人使用的语言类型、行为模式,以及别人看待他们的方式,即使据称是中立的算法,在执行评估时亦是如此。 因此,如果算法只被训练去看到履历中提及的性格特质、具体技能与某些关键词的普遍性,依然可能产生歧视性的结果。

许多人工智能系统使用的其中一项指标,是评估求职者的“五大”人格特性(外向性、亲和性、开放性、尽责性、情绪不稳定性),以避免任何种族化或性别分类。 这些人工智能公司宣称,人格分数可以对求职者的能力做中立的评估,比起招募人员对其经验的主观评价,这更能任人唯才。 然而,即使这样的人格测验似乎也无法产生公正的结果。 证据显示,求职者在测验时的穿着打扮与所的语言,都可以改变这些工具对求职者性格的部分看法。 这些所谓的人格评估近乎伪科学,根据人们的语气或屏幕上的外观,建立可靠的“行为特征”,从而预测工作表现。

公司不仅使用软件来整理履历,有些公司会邀请求职者参加自动化视频面试,要求求职者盯着网络摄影机并回答预先录制的问题。 然后,人工智能驱动的软件就会分析他们的回答,以确定他们是否适合这份工作。 例如,Modern Hire拥有一个“人工智能驱动的自动化面试平台”,称作“自动化面试创造器”(Automated Interview Creator),可以协助人力资源部门发展面试并评估求职者。 人工智能工具主要用来誊写面试内容,并根据转录下来的文字对求职者进行评估与排序。 但在此之前,收购了Modern Hire的HireVue是使用脸部辨识人工智能工具来分析视频面试,结果被投诉到联邦贸易委员会(Federal Trade Commission),指称有不公平和欺骗的行为。 该软件声称可以分析求职者的脸部表情、微手势、语气和线上状态,以评估性格特征与适合程度。 虽然HireVue停止使用这类工具,很难估计这些工具在业界的盛行程度。 美国有些州正在制定法律,规范人工智能在招募中的使用,譬如伊利诺州立法机构的“人工智能影像面试法”(Artificial Intelligence Video Interview Act),以及纽约州的“自动化聘雇决策工具”(Automated Employment Decision Tool)法规。 欧盟人工智能法案(EU AI Act)也将人工智能招募软件归类为“高风险”,意指公司必须符合一长串要求,以确保软件的安全性,并在可公开访问的数据库中,提供有关其系统的信息。 但就目前而言,这项技术的大部分使用仍然取决于雇主,这也为潜在带有偏见的决策留下了很大的空间。

    A+
声明:本文转载自其它媒体,转载目的在于传递更多信息,并不代表赞同其观点和对其真实性负责。