你能否接受求职时需要被人工智能评级系统打分,并决定去留权?

人工智能评级系统也许预示着不仅仅是儿童保育,甚至是未来的每个工作,都是由一台机器决定的。许多招聘和招聘公司已经在建立或投资可以大规模分析候选人简历的系统,并提供自动评估每个人的表现。

前言

Predictim是一家总部位于加利福尼亚的创业公司,它使用机器学习来审查潜在的保姆。

当Jessie Battaglia开始为她1岁的儿子寻找新的保姆时,她想要的信息比她从犯罪背景调查、家长评论和面对面访谈中获得的信息更多。因此,她求助于Predictim,一种使用“高级人工智能”评估保姆个性的在线服务,并将其扫描仪针对一个候选人的数千个Facebook、Twitter和Instagram帖子。

该系统为24岁的备选保姆提供了一个自动的“风险评级”,称她作为吸毒者的风险“非常低”。但它的欺诈,骚扰,“不尊重”和“态度恶劣”的风险评估略高 - 为2/5。

Jessie Battaglia的手机显示了Predictim应用程序的结果

来源:华盛顿邮报

该系统没有解释为什么它做出了这个决定。但是本来相信这位保姆值得信赖的Jessie Battaglia突然开始犹豫和疑虑了。

人工智能评级系统

Predictim向父母提供与其他数十家科技公司向全球雇主销售的相同的剧本:人工智能系统,分析一个人的言论,面部表情和在线历史,承诺揭示他们私人生活的隐藏方面。

该技术正在重塑一些公司如何招聘,雇用和审查工人,通过新一轮的入侵性心理评估和监督为雇主提供无与伦比的求职者选择。

Fama科技公司表示,它使用AI来检查工人的社交媒体“毒性行为”,并警告他们的老板。与Geico,Hilton和Unilever等公司合作的招聘技术公司HireVue提供了一个系统,可以在视频访谈中自动分析申请人的语气,单词选择和面部动作,以预测他们在工作中的技能和风度。

Predictim的首席和联合创始人Sal Parsa表示,该公司上个月作为加州大学伯克利分校SkyDeck科技孵化器的一部分推出,该公司严肃对待其对该技术的使用的道德问题。他说,父母应该将评级视为“可能会或可能不会反映保姆的实际属性”的伴侣。但是,他补充说,雇用有问题或暴力的保姆的危险使得AI成为任何父母希望保护孩子安全的必要工具。

反对看法

但批评人士表示,Predictim和类似的系统通过使自动化和可能改变生活的决定几乎不受制约而呈现出自己的危险。些系统依赖于黑盒算法,这些算法很少详细说明它们如何将一个人内心生活的复杂性降低为计算美德或伤害。即使Predictim的技术已经影响了父母的思维,但它并没有完全被证实,在很大程度上无法解释。

Predictim的扫描分析了保姆社交媒体的整个历史,对于许多最年轻的保姆来说,这些媒体可以覆盖他们的大部分生活。并且告诉他们,如果他们拒绝,他们将在竞争性工作中处于极大的劣势。

专家们担心,像Predictim这样的人工智能评级系统预示着不仅仅是儿童保育,甚至是未来的每个工作,都是由一台机器决定的。许多招聘和招聘公司已经在建立或投资可以大规模分析候选人简历的系统,并提供自动评估每个人的表现。类似的人工智能系统 - 包括谷歌创建的技术孵化器Jigsaw--用于在网上巡逻在线评论,用于骚扰,威胁和滥用。

但是,招聘算法通常被证明可以隐藏那些可能会破坏一个人职业生涯的微妙偏见。消息人士告诉路透社,亚马逊停止开发招聘算法,因为该公司在男性主导的科技行业雇用的历史告诉该系统男性属性是首选。该公司表示,该工具从未用于评估候选人。

一些人工智能专家认为,像这样的系统有可能增加年龄偏差或种族貌相,包括比其他人更频繁地标记来自某些群体的文字或图像。他们还担心Predictim会强迫年幼保姆为了找到工作而交出私密数据。

信息来源:https://www.washingtonpost.com/technology/2018/11/16/wanted-perfect-babysitter-must-pass-ai-scan-respect-attitude/?noredirect=on&utm_term=.b6a8edc60995&wpisrc=nl_tech&wpmm=1

(0)

相关推荐