陈根:算法,为何会存在偏见?
文|陈根
由于算法对数据的掌控及后续分析,衍生出了丰富的信息要素深刻影响经济与社会进程。算法之下,个人信息的掌握和分析成为简单和日常的事情,人自然而然地成了计算的客体,由此衍生的算法可能带有偏见。
大数据时代,如果经营者收集的信息足够全面,掌握的算法足够先进,足以甄别出每位消费者的购买意愿和支付能力,就可针对消费者单独制定不同的价格。商家为了获得更多用户,便可以通过大数据算法获知哪些用户可以接受更高的价格,哪些用户应该适当地予以降价,“大数据杀熟”由此诞生。
常见“杀熟”套路主要有三种:根据不同设备进行差别定价,比如针对苹果用户与安卓用户制定的价格不同;根据用户消费时所处的不同场所,比如对距离商场远的用户制定的价格更高;根据用户的消费频率的差异,一般来说,消费频率越高的用户对价格承受能力也越强。
早在 2000 年,就已有“大数据杀熟”事件发生。一名亚马逊用户在删除浏览器 Cookies 后,发现此前浏览过的一款 DVD 售价从 26.24 美元变成了 22.74 美元。当时,亚马逊 CEO 贝索斯也作出了回应,说明该事件是向不同的顾客展示差别定价的实验,处于测试阶段。同时,他还表示与客户数据无关,并最终停止了这一实验。
而二十年后的今天,随着网络普及,用户信息不断沉淀,大数据杀熟则成为了普遍存在的不良现象。根据北京市消费者协会 2019 年 3 月发布的“大数据杀熟”问题调查结果,88.32% 被调查者认为“大数据杀熟”现象普遍或很普遍,且 56.92% 被调查者表示有过被“大数据杀熟”的经历。
面对不透明的、未经调节的、极富争议的甚至错误的自动化决策算法,我们将无法回避“算法歧视”与“算法暴政”导致的偏见与不公。随着算法决策深入渗透我们的生活,我们的身份数据被收集、行迹被跟踪,我们的工作表现、发展潜力、偿债能力、需求偏好、健康状况等特征无一不被数据画像从而被算法使用者掌控。
如今不管是贷款额度确定、招聘筛选、政策制定乃至司法辅助量刑等,诸多领域和场景中都不乏算法自动化决策。社会原有的结构将被进一步固化,个体或资源在结构框架之外的流动愈发被限制。
算法对每一个对象相关行动代价与报偿进行精准评估的结果,将使某些对象因此失去获得新资源的机会,这似乎可以减少决策者自身的风险,但却可能意味着对被评估对象的不公。