因为“歧视”和“偏见”,AI暂时还做不了人的主

关于AI歧视我们也聊了很多,比如相貌偏见、语言歧视等,但AI的歧视显然不仅只在这一个浅显的领域。在其相貌和语言歧视的背后,矗立的其实是AI对这个社会全方位的片面判断。

那么,AI的歧视问题也就不是一个简单的算法问题了。今天我们就再聊一聊AI的偏见问题,以及面对它,我们究竟能做些什么。

始作俑者的人类本身:

AI歧视产生的根源

首先我们需要清楚的是,发生AI歧视这种事情的原因在哪里。目前来看,大体上有两个个方面。

1. 数据和算法的限制。

首先是数据的限制。AI对事物作出的判断不是凭空或者随机而得的,它必须要经过一些列的训练学习才可以。那么,如果要训练它在某方面的能力,就要将相关领域的数据搜集起来供其学习。在这一方面,如果数据训练量不足,那么就会造成AI学习的不完备,其也就可能作出错误的判断。

而数据限制的另一方面则来自数据本身。比如某个群体会有一些共性的特征,那么AI将会把这些大多数的共性特征数据作为标签来用。一旦对象不在这个群体特征里,或属于这个群体的少数特征,其就有可能采取否定的态度。

其次则是算法的限制。程序员在设置AI学习程序的时候,无法做到过滤到每一条消极的信息。因此,AI在经过大量的数据学习之后,其会自动匹配不同群体之间的关键词,然后做出判断。比如职业的男女分化问题。

事实上,目前我们面临的所有AI的歧视问题基本上是围绕着这两个方面展开的。数据学习不够多,或者数据学习够多之后,其学习范围超出了程序员设定的内容,然后开始进行自我学习和判断。这就造成了歧视行为的发生。

2. 人类固有偏见的强化。

但AI的歧视问题的根源并不在于数据和算法。在一定程度上,AI的歧视实际上是人类偏见的一种显现和强化。人类是善于进行言语上的克制的,或者表现出在沟通交流中的表面客套。长此以往,人们似乎把隐藏自己对别人的偏见当成了一种有素质的美德。问题变成了你心里歧视与否不重要,面上做得好,你就是一个好人。

在这方面,做慈善的被曝丑闻后对比尤其突出。

而AI出现的意义之一就是打破了人们维持表面友好的自我欺骗的情况,它把那些被人们刻意隐藏的,并且似乎被隐藏得很好的东西重新抖搂了出来。这就是显现,那么为什么说会得到强化呢?

首先,AI学习就是一个排除的过程,比如对图像语义分割,它要找到眼球,就必须要先进行图像的分割,否定其他不适眼球的东西。同理,要招到一个合适的员工,它也是重点去排除不合适的选项。否定的过程,就是一个强化的过程。

其次,是基于AI的特殊属性。AI是有史以来第一个人造的、有自己的判断能力的事物,当它出现一些违背人类维持表面友好而设定的一些规则的时候,人们一方面感到惊异,另一方面则会由此而进一步看清自己。它毫不留情地折了人类的面子,自然换来了更大的关注。

算法的限制和对人类固有观念的强化,大抵可以说明了AI歧视横行的原因所在。

AI歧视不仅类别多,

影响可能还很大

如果我们仅仅是被AI歧视了,并且知道它的歧视是算法和人类本身问题所致,那也就无需担心。毕竟,歧视无处不在,心理足够强大,任何歧视都够不成火力伤害。论不要脸的自黑精神,似乎没谁能比得过现代人。

但是,当AI不仅仅是歧视你,还要对你做出判断,决定你的人生、工作、地位……的时候,你还能对它的歧视坐视不管吗?

比如现在非常流行一个概念,用AI来进行招聘。在理论上来讲,它能够通过学习既有的员工资料来筛选最符合公司需求的新人。对这些员工进行标签分类是学习的一环,能力强、口才好、实习经验丰富等可能会被筛选出来,但是,万一在这些样本中,AI找到了其他具有高度相同但和招聘又无关的标签了呢?

比如这些人可能男生多一点,它可能会认为女生不适合这项工作;如果城市户口的人多一点,来自农村的就有可能被筛掉;如果23岁以前的人多一点的话,那23岁以后的人就可能被认为不适合……

你看,仅仅就是这几个方面,就已经涉及到性别歧视、地域歧视、年龄歧视了。虽然人们开发AI进行招聘是为了避免面试官会凭主观印象决定去留,但太过于客观的AI招聘同样也会引发一些值得考虑的问题。

再比如把AI布置在警务工作当中。最近一段时间提到最多的就是利用AI帮助识别甚至是预测罪犯。比如去年上海交大的一篇论文中提出,可以通过人的样貌进行分析,来判断此人是否有犯罪的倾向。简单来说,就是看你是不是长了一张“犯人脸”。而美国的警察也在最近试图部署一套警务系统,来预测犯罪发生的人员相关、地理区域等,然后来针对性加强监控。英国来采用过类似的方法来预防犯罪。

这其中自然存在着严重的问题。看“人脸”就能辨罪犯?虽然相貌歧视确实一直存在,但基本上都是基于五官的缺陷。现在居然升级了。美国的预测犯罪往往会把黑人和黑人集中区域当做重点预测对象,这是很难令人接受的。尤其是美国这样一个对黑人歧视非常忌讳的国家,AI即便不是个人,这一举动也会招致人们的讨厌。英国就更不用说了,他们的这个监视系统运行了一段时间之后,穷人被特别针对了,因此最终不得不紧急下线。

从这几个案例当中,我们发现,AI还存在着相貌歧视、种族歧视、贫富歧视。除此之外,AI的歧视还深度存在于各行各业当中,甚至未来的一天我们可能真的会像《黑镜》当中一样戴一个隐形眼镜,然后就可以看到眼镜对面来人的安全度识别。高安全度也不一定真的安全,很有可能是刷出来的呢?

也就是说,AI的歧视是一个综合性的东西。问题又来了:难道因此我们就要将AI废弃吗?我们人类就那么玻璃心吗?

当然,弃用AI不现实,这是一个因噎废食的行为。它毕竟还在深刻地改变着我们的这个社会。但是,随着AI的大规模应用,努力减轻甚至是消除AI的偏见,也已经显得迫在眉睫。

怎能坐视不管:AI歧视的解决之道

谷歌的一款数据库被人们发现有存在着明显的性别歧视。比如一个简单的问答,巴黎:法国,那么东京:X,系统就会给出X=日本。如果是“父亲:医生”,其则将会对应“母亲:护士”;“男人:程序员”,“女人:家庭主妇”,诸如此类。

研究者们创建了一种“硬性纠错”的方法。简单来讲,就是把系统判断出的对应关系放到一个论坛平台上去发布并询问是否合适。如果有一半的人认为不合适,那么这个类比就不恰当。这种方式进行了一段时间之后,对AI进行单词搭配的改善效果是非常显著的。

这个方法虽然有效,但是明显看出它只能适用于一些数据范围较小的方面。比如某一家公司的招聘,可以在招聘之前对AI进行训练,然后找出问题,再用这种方法进行硬性纠错。但是如果要用它来解决AI所有的问题,却有点不现实。

哥伦比亚大学的研究者们则开发出了另外一种方式。深度学习研究的进步是AI复活的一个重要因素,但是AI的黑箱问题仍然没有解决。因此,这些研究者们就试图用打开黑箱的方式去弄明白为什么AI会做出一些错误的决定。他们开发出了一个能在神经网络中通过欺骗系统从而使其暴露自身缺陷的软件,名叫“DeepX plore”。这个软件能够激活系统中几乎百分之百的神经元,从而让整个神经网络去扫描错误。

也有其他的人建议从编程上去解决问题。但是从根本上来说,人类应该把AI的歧视当做一面镜子,仔细审视自己在社会活动中种下的祸根。由此,不断减少自己实际意义上的歧视和偏见。只有学习的内容消失了,AI才可能避免产生歧视的问题。

但是我们仍然要注意的一个问题是,用“偏见”和“歧视”去概括AI所有的“区别对待”是不合适的。人类发展到现在,不同职业对人有不同的要求,男人耕田女人织布反映的其实是历史经过长期发展后的自然分工。那么,在处理AI歧视问题的时候就不是一个简单的算法纠正了,它还涉及到社会学、经济学等各个方面的问题。

这样来看,解决AI的歧视和偏见,我们可能仍然有很长的路要走。目前能做的就是,生杀大权这件事儿,还是交给人类自己吧。

(0)

相关推荐

  • 指望AI永远保持客观,其实可能才真是一种奢望

    如果你在某个周末抽空回顾十多年前的经典科幻片,就会发现好莱坞非常擅于将人工智能设置为肩负统治人类重担的终极大BOSS.无论是黑客帝国里的史密斯,还是终结者里的天网,甚至是生化危机里的红后,都体现出一种 ...

  • 当年轻人开始谈论AI伦理

    当人工智能技术从象牙塔走进现实生活,与AI伦理有关的议题逐渐成为学术界争论的焦点,甚也有一些年轻人也开始思考算法的伦理和风险. 撰文 /   Alter 编辑 /    胖爷 赛博朋克的电影里,常常可 ...

  • 陈根:纠偏AI歧视,从打破行业偏见开始

    文/陈根 科技是人类现有文化的延伸.科技在延展了人类智慧的同时,也继承了人们的偏见和歧视. 当前,人工智能作为第四次工业革命中的代表性技术,正在迅速改变我们所认知的世界.然而与此同时,现实世界中,由人 ...

  • 像教我们的孩子一样教人工智能

    --选自Motherboard-- 作者:JORDAN PEARSON 全球技术地图编译 孩 子并非天生就有种族或性别歧视--厌恶和仇恨都是被教出来的.人工智能也一样,是人类教会了它们一切. 据Pro ...

  • 你以为可靠的搜索结果,也许都是算法的偏见!

    文/单广荻   正心正举特约作者 主播/啄二少 "人工智能"在1956年才正式作为一个学术概念被提出.在这不算悠久的几十年发展历程中出现了许多次转折点,但直到2017年,<华 ...

  • 陈根:算法歧视,真的存在吗?

    文/陈根 人工智能的发展让人们逐也渐意识到算法所依赖的大数据并非中立.它们从真实社会中抽取,必然带有社会固有的不平等.排斥性和歧视的痕迹. 早在20世纪80年代,伦敦圣乔治医学院用计算机浏览招生简历, ...

  • Python除了做ai,还能干啥?

    先说个笑话,很多人一开始学习 Python 的时候,会感到无聊和枯燥,因为一开始都不知道那些循环语句呀.列表呀.元组等知识点的用武之地,所以慢慢的就没什么动力了,然后就去买滑板鞋,开始在地上摩擦,像魔 ...

  • (诵读)下辈子还做我的母亲 || 罗学贵(湖北)*诵读/罗学贵

    下辈子还做我的母亲 文/罗学贵 诵读/罗学贵 编辑/落英小桥 风把时光吹奏出 一道道彩线 又四季分明的 装进了记忆的盒子里   打开春的盒子 妈妈从烛光里走出来 八音盒里骤然响起 春蚕到死丝方尽 蜡炬 ...

  • 贾元春回家时说错一句话 ,还做错一件蠢事,连累贾府满门被抄

    红楼梦小说开篇,冷子兴便演说过贾家的情况,贾家之所有会有诺大的家业,全靠第一代的人努力,荣宁二公在战场上出生入死,因军功才封官加爵的,在当时是显赫一时的大家族,连贾府也是皇帝诏书"敕造&qu ...

  • 樱花树下的“柴犬兄妹照”,暖哭100万网友:下辈子,我还做你的哥哥!

    来源:艺非凡(ID:efifan) 如果你问我什么是理想的生活, 那大概就是一屋三人, 还有猫猫狗狗陪伴左右. 在日本,铲屎官Nerishiro 就过上了这样的理想生活. 她养了两只柴犬, 分别是哥哥 ...

  • 弄懂这几个烹饪原理后,你也能做大厨,再也不会手忙脚乱还做不好

    弄懂这几个烹饪原理后,你也能成大厨,再也不会手忙脚乱还做不好.大家好,我是@水墨尚食,今天就跟大家聊聊做菜的烹饪原理和技巧. 衣食住行是生活中每个人避不开的事,其中食又是每个人每天离不开的,俗话说的好 ...

  • 平定诸吕之乱,代王刘恒毫无功绩,为何还做了皇帝?

    聊历史那点事 历史风云,硝烟无声,谋略无形,诲汝谆谆.这里集智慧韬略.剑影刀光于一体,聊历史那点事,与君共忆往事. 公众号 平定诸吕后,各方力量都集中精力争夺帝位继承权.其中最有代表性,也具有合法性的 ...

  • 笑话段子:去男友家吃饭,男友妈妈炒了好几个菜,还做了甲鱼汤

    儿子小时候,聪明可爱,虎头虎脑的,一次我拿扫帚扫地,儿子看见慌忙跑过来了.妈妈我来扫,我来扫.我很惊奇,儿子这是怎么了?结果儿子来了句,爸爸昨天告诉我,一屋不扫何以扫天下,以后家里的地都我来扫.看着儿 ...

  • 大姨妈来了,老公炖了大骨头和酸菜,最后还做了面包

    早上一觉醒来已经是6点多了,和儿子去高记粥铺吃了早饭.吃完饭我就上班了,此刻还没有到7点,到了单位打扫卫生,说实在的我都难受死了,这大姨妈不管怎么说总算是来了,这痛经的滋味可真是不好受.不仅仅是肚子疼 ...

  • 非人哉:太乙真人即将登场?最近哪吒又提到他,还做了件奇葩的事

    之前更新的<非人哉>漫画里,登场过的新角色不少,比如财神爷啦,比如新的玉兔球球啊啥的,都是很有趣的角色,就连大家一直期待的<西游记>师徒几人组里,也登场了孙悟空.猪八戒和沙和尚 ...