当算法掌控我们的生活时,我们可能面临什么?
“大数据”、“云计算”、“人工智能算法”这些词在当今社会经常出现,大家总是幻想在技术的支援下,我们的社会会发展成像阿里的物流仓库那样,有序高效。然而现实情况是,算法给工人们带来的不止是光明,还有更多的不确定性。
在《2001:太空漫游》中有这一幕:除了飞行员和科学家,飞船上还有一台具有人工智能、掌控整个飞船的电脑“哈尔”,当飞行员大卫·鲍曼出舱执行救援后返回时,哈尔拒绝为鲍曼打开舱门:“对不起, 大卫。恐怕我做不到。”哈尔礼貌地拒绝,但态度冷淡。
这个情节已经成为一个明确的警告,告诫人们不要过于相信人工智能,尤其是在太空工作的时候。在电影中,当机器决定成为主人时,事情就会出问题。然而,尽管有无数反乌托邦的警告,机器控制正在迅速入侵我们的生活。
算法无处不在
算法——解决问题或完成任务的指令集——现在影响着现实生活中的一切,从浏览器搜索结果到医疗服务。算法也正在帮助设计建筑;正在加速金融市场上的交易,研究如何在极短的时间内赚钱或赔钱;同时正在为送货司机计算最有效的路线。
在工作场所,企业正引入自学算法计算机系统,以便在招聘、设定任务、衡量生产率、评估绩效甚至终止雇佣等领域提供帮助。
让自我学习算法负责制定和执行影响员工的决策,这被称为“算法管理”。它带来了许多风险,可能会削弱管理体系的人情味,加剧原有的偏见。
在更深的层面上,算法管理可能会巩固管理层和员工之间的权力不平衡。算法是严格保密的秘密。他们的决策过程是隐藏的。这是一个黑盒子:也许你对输入的数据有一些了解,你看到了输出的结果,但你不知道中间发生了什么。
下面是一些已经在使用的算法示例。
在亚马逊位于墨尔本东南部的物流中心,他们为“采摘者”设定了速度,这些人的扫描仪上有定时器,显示他们需要多长时间才能找到下一件物品。当他们扫描那个项目时,下一个项目的计时器就会重置。以“不完全是走路,也不完全是跑步”的速度。
或者人工智能如何决定你在求职面试中的成功?超过700家公司已经试验了这种技术。美国软件开发商HireVue表示,该软件让应聘者回答相同的问题,然后根据语言、语气和面部表情给这些问题打分,从而将招聘过程加快了90%。
诚然,人工评估在招聘面试中是出了名的有缺陷。然而,算法也可能存在偏差。典型的例子是美国法官、缓刑和假释官使用COMPAS软件来评估一个人再次犯罪的风险。2016年,新闻调查网站ProPublica的一项调查显示,该算法存在严重的歧视性,将黑人受试者错误地归类为高风险人群的几率为45%,白人受试者为23%。
2
算法的信息不对称
算法执行代码可以显示它们的操作。问题是这些代码很少被公开,这使得它们很难被仔细研究,甚至难以理解。
这一点在零工经济中表现得最为明显。如果没有算法对工作进行分配、监控、评估和奖励,优步和其他外卖、打车、订餐平台就不可能存在。
例如,在过去的一年里,优步的自行车快递员和司机就把他们的工作和收入减少归咎于算法的无法解释的变化。
骑车人不能100%确定这一切都取决于算法。但这只是问题的一部分。那些依赖算法的人不知道这是一种方式还是另一种方式,这一事实对他们有着强大的影响。
这是我们采访了58名送餐员后得出的重要结论。大多数人都知道他们的工作是通过一个算法(通过一个应用程序)分配的。他们知道这款应用会收集数据。他们不知道的是数据是如何被用来奖励他们的工作的。
作为对算法的回应,他们制定了一系列策略(或猜测如何)来“赢得”更多的工作,比如尽快接受临时工作,在“神奇”的地点等待。具有讽刺意味的是,这些取悦算法的尝试往往意味着失去灵活性,而灵活性正是零工工作的吸引力之一。
算法管理产生的信息不对称有两个深刻的影响。首先,它有可能巩固系统性偏见,即COMPAS算法中隐藏多年的歧视类型。其次,它加剧了管理层和员工之间的权力失衡。
我们的数据也证实了其他人的发现:指出算法的决策机制有问题几乎是不可能的。工人们通常不知道这些决定的确切依据,而且也没有人可以抱怨。例如,当快递员让优步公司解释一下为什么自己的收入直线下降时,该公司的回应是:“我们无法手动控制你能收到多少快递。”
3
算法关于和公平管理的矛盾
当算法管理作为一个“黑盒子”运行时,其结果之一是它可以成为一种间接的控制机制。到目前为止,这种控制机制没有得到澳大利亚监管机构的重视,它使得平台能够调动可靠、可扩展的劳动力,同时避免了雇主的责任。
维多利亚政府在其报告中对“按需”工作岗位进行了调查,“由于缺乏有关算法如何运行的具体证据,如果司机或乘客感到自己受到了不利影响,他们也很难提出异议。”
6月发布的这份报告还发现,“很难确认对算法透明度的担忧是否真实存在。”
但确切地说,很难确定这就是问题所在。我们如何开始识别,更不用说解决,像算法管理这样的问题?
以公平的行为标准确保透明度和问责制是一个开端。牛津互联网研究所发起的公平工作倡议就是一个例子。该倡议将研究人员、平台、工人、工会和监管机构聚集在一起,为平台经济中的工作制定全球原则。这包括“公平管理”,它关注的是算法的结果和结果对员工有多透明。
算法对各种工作形式的理解仍处于起步阶段,它需要更严格的审查和研究。如果没有基于公认原则的人类监督,我们就有可能邀请哈尔(文章开头提到的人工智能)进入我们的工作场所。
原文标题:How algorithms keep workers in the dark
原文地址:https://www.bbc.com/worklife/article/20200513-how-ai-can-help-us-harness-our-collective-intelligence
原文作者:Tom Barratt, Alex Veen and Caleb Goods