美国AI专家呼吁监管“算法偏见”:破局AI时代的伦理难题

2018天津夏季达沃斯经济论坛专题【二】:

围绕“在第四次工业革命中打造创新型社会”主题,在"算法的隐形力量"专题讨论中,AI领域专家学者、创业公司、NGO组织等围绕“算法偏见”问题积极参与讨论,并提出对策。

主持人:威尔-奈特

安娜·布莱森:巴斯大学计算机科学教授,是人工智能及伦理方面的积极推动者,包括自然语言系统和人工智能系统的培训和训练,以及相关数据集研究。

Frida Polli: 美国Pymetrics联合创始人、首席执行官,致力于解决人工智能面临的偏见问题。

Lauren Woodman: 美国NetHope首席执行官,该公司主要研究如何让NGO利用技术帮助解决问题。

Robert Gryn: 波兰 Codewise首席执行官,迅速成长的一家开发APP的公司,致力于依赖算法、机器学习帮助克服各种各样的决策挑战。

最近两年,全球因“算法偏见”引发的AI争议事件日益增多。比如美国佛罗里达州的一项犯罪预测算法错误地将黑人罪犯重新定义为白人的两倍;在有漏洞的社交媒体算法中可以通过假新闻影响总统选举;AI招聘向女性推荐大量低薪岗位;无人驾驶汽车背后的算法会决定到底是撞向一颗树还是一个人?

如何让算法摒弃偏见?让算法更公平、更科学地打造一个美好社会?在9月19日2018天津达沃斯经济论坛上,巴斯大学计算机科学教授乔安娜·布莱森、美国Pymetrics联合创始人、首席执行官Frida Polli美国NetHope首席执行官Lauren Woodman波兰 Codewise首席执行官Robert Gryn等再次探讨了这一热点话题。

“算法偏见”源于“数据偏见”

要解决“算法偏见”问题,巴斯大学计算机科学教授乔安娜.布莱森认为,有必要对人工智能(AI)、算法和偏见的概念进行界定。

AI越来越重要,有人错误地认为,人工智能就是要让机器像人类一样;但AI没有想象中那么科幻,毕竟机器没有人类欲望,也没有所谓惩罚机制。

算法指的是一种方法,即通过一系列步骤,让人们从感知转变为行动;在计算机科学领域,算法也被称为一种“解决方法”,也就是说,算法是人类采取的行动。这也意味着,必须要有人为算法负责,即谁生产谁负责。机器学习是技术人员构建算法的一种方法,也就是人们经常说到的编程。

偏见本身是常规的概率性的问题,偏见和个人的感知有关系。乔安娜·布莱森认为机器学习里面如果没有偏见,就什么都没有了。只是有的时候,有些规律是好的,有些规律则是差的,差的规律就是常说的偏见。很多时候,人们可能不相信偏见,而且不自觉把偏见传递给下一代。

算法偏见的产生主要来源于“数据偏见”。如果输入的数据是错误的,那么AI算法的结果可能会有偏见。有些性别主义者会有“性别”偏见,因此他们可能会有意识把偏见算法和偏见数据输入到计算机的编程之中。

作为NGO组织,Lauren Woodman所在机构主要研究如何利用AI技术来帮助解决一些困难问题,比如利用AI改善医疗困境,包括儿童疾病、慢性病等,他们经常面临各种各样的难题,整个体系非常复杂,而不同数据集能够帮助他们更好地采取措施去解决问题。

但是,一旦收集的数据不够充分或者没有公平公正,那么就会影响到后续的救助服务质量和服务效果,比如没有把急救物资发放给最迫切需要的地方等。或者,如果输入算法的数据只是历时数据,那么就有可能无法准确地预测未来发展情况。

呼吁建立问责机制、防范体系

随着AI大规模推广应用,大量算法偏见问题会涌现,如何确保AI系统是安全的、算法是公正公平的?如何规避算法偏见?对于非常复杂的无人驾驶汽车系统、医疗系统、法庭,以及像警察预测谁最有可能犯罪等问题,这些系统的社会影响力很大,一旦出事,造成的不良影响很大,到底谁来负责?比如无人驾驶汽车,出了问题,到底是汽车制造商的责任,还是软件开发商的责任?

从技术层面来看,规避算法偏见,只需要保证输入算法的数据不带有偏见,但真正要落实起来涉及很多方面的问题。

美国NetHope首席执行官Lauren Woodman认为,需要建立问责机制,让企业参与方负起责任,对他们部署的AI技术负责,并明确规定,算法偏见造成的伤害由谁来负责。警察、法庭、卫生等AI使用部门可能会说,他们不是技术专业人士,看不出软件是好是坏;但技术人员又认为,他们只负责AI技术,不懂用户的业务规则,也不会考虑伦理问题。

“不是说每一个警察都应该知道如何编程,民间团体和体系可以运用这些算法来帮助警察做出预测,一个人从监狱放出来之后,再犯罪的可能性有多大。” 乔安娜-布莱森认为,使用AI的政府部门和企业如警察、法庭、卫生等,必须要制定使用规则和标准,了解相关算法测试的流程、工具和标准,并且要知道技术商到底在训练什么样的数据,使用AI技术的出发点是为了什么。总之,使现有法律体系和法律框架对AI算法进行更加明确的规则设置。

就像《广告法》规定很多不良广告不能在社交媒体上发布一样,造成不良社会影响的AI也应该受到使用限制。建立一种避免AI算法偏见的机制显得尤为重要。

美国Pymetrics联合创始人、首席执行官Frida Polli和波兰 Codewise首席执行官Robert Gryn虽然支持建立问责机制,但对于是否应该把监管问题提升到法律层面则有不同看法。Frida Polli表示,是否应该增加相关管制和机制,是一个值得探讨的话题。因为每个行业已经有大量法律法规的约束,不需要为了算法偏见再重新建立一个监管机构。

Robert Gryn则认为,因为AI发展速度非常迅速,而且立法肯定永远落后技术发展一步。通过设置法律体系去处理AI相关问题是不现实的。但为了改变这种现状,的确需要建立一种防范机制。

积极向公众进行宣教也是解决算法偏见的一种有效途径。在广告营销行业,每个人的每一次上网,背后都是机器帮你决定,让你看哪一个广告,在广告上面停留多少时间等。但是,从公平角度来看,目前大家都不知道自己被收集了哪些数据,人们也不知道这些被收集数据怎么使用,对我们有什么影响。很多人不知道哪些决策由机器自动化做出来的,而公众有权利去质疑自动化做的决策。Robert Gryn表示:“要避免算法偏见,需要提高大众的意识普及问题,对公众进行教育和提高公众的权力意识是非常重要的。”

与其建立一个监管机构,不如建立一种宣教机制,让整个社会和民众更好地了解AI到底是什么,包括它的一些运作的方式。

关于技术和法律之间的关系,Lauren Woodman也倡导针对AI建立一个监管机构,但这个机构的职责是否需要像警察一样,还需要探讨。而且现有法律的确需要修订,以更好适应形势和技术的发展,但前提是首先发现真正问题是什么。

通过AI技术来解决算法偏见也是一种解决办法。据Frida Polli透露,很多初创企业的招聘流程都是计算机自动生成的,并不一定会关心招聘程序对员工是不是公平、有没有偏见。Pymetrics公司则率先研发一个专门纠正算法偏见的算法,可以告诉你,你的语言中是不是存在性别偏见,如何改变你的语言和行为。如果你能够纠正的话,你就能够得到更好的发展。这项AI技术可以让企业能够更加公平地招募员工,而不是区别对待“男性员工和女性员工”;还有认知领域的神经学家会去研究包括你的一些风险偏好、回报偏好、个性等进行预测,使用这些数据来评判一个人获得工作的可能性。总之,我们要确保采用算法技术之后,整个招聘程序是公平公正的。

(文章内容整理自2018年天津夏季达沃斯论坛,未经嘉宾确认)

原创转载请务必注明来源:

(0)

相关推荐