陈根:技术为什么不中立?
文/陈根
以互联网、人工智能等为代表的信息技术的勃兴,把社会推进了第三轮科技革命。技术带来的效率进步毋庸置疑,这已经成为人类社会的共识。在这样的背景下,人们似乎正毫无疑虑地全面拥抱科技,希望它能够给人类社会带来更好的未来。
然而,与过去的任何一个阶段的技术都不同的是,工业社会时代,人对于技术的敬畏是天然的、明显的,技术被看作理性的工具。而智能时代重塑了人与技术的关系,技术不再仅仅是“制造”和“使用”的方式,而是一种人化的自然。
智能时代下,信息技术覆盖融合着人们的生活。对于技术的理解和驯化,调试人和技术的关系成为人们新近的关切。随着法律与科技之间的难题不断被突现,复杂的困境和新兴的挑战迭起,过去的“技术中立”观念受到越来越多的质疑。
科技的利好推迟了我们对技术副作用的反思。然而,当行业发展的脚步放缓后,人们开始逐渐意识到这个时代的“技术不中立”,迟了那么多年的反思还是来了。
有目的的技术
不论是第一次技术革命,蒸汽机推动生产效率提高;还是第二次技术革命,电力与内燃机大规模使用使得生产效率翻番,技术的本质,都与一开始人类祖先手中的石器并无二致——提升效率,拓展生活外延。不同的是,现代技术受到现代科学的客观性影响,因而更具有客观面向。
正因为现代技术被赋予科学的要素,以至于在很长一段时间里人们都认为,这种来源于科学的技术本身并无所谓好坏的问题,其在伦理判断层面上是中立的。其中,技术中立的含义被分别从功能、责任和价值的角度证实。
功能中立认为技术在发挥其功能和作用的过程中遵循了自身的功能机制和原理时,技术就实现了其使命。在互联网方面,功能中立尤其体现在网络中立上,即互联网的网络运营商和提供者在数据传输和信息内容传递上一视同仁地对待网络用户,对用户需求保持中立,而不得提供差别对待。
责任中立则把技术功能与实践后果相分离,是技术使用者和实施者不能对技术作用于社会的负面效果承担责任,只要他们对此没有主观上的故意。也就是所谓的“菜刀理论”菜刀既可以切菜,也可以杀人,但菜刀的生产者不能对有人用菜刀杀人的后果承担责任。
但不论是技术的功能中立,还是责任中立,都指向了技术的价值中立。显然,在第三次工业革命里,围绕着技术的行为,从设想技术,到开发技术、传播技术、应用技术、管制技术等,没有一个存在所谓的“中立”。人们的价值观早已融入到我们设计和建造的一切中。
与随机杂乱、物竞天择的进化过程不同,技术是发明者意志的产物,是为了达成某种目的而形成的。尽管技术包含着一个客观结构,但技术同时服务于人的目的理性活动。这意味着,它在诞生前就已经被概念化和谨慎思考过。每一个新的创造都是为了满足需求,实现目的。
当市场是一片空白时,处处是蓝海。无论产品质量如何,都能满足涌进互联网的新用户的消费需求。而在增量市场成为过去式后,竞争变成了一场存量的争夺。于是,在消费互联网的下半场,当用户规模不再增长时,科技公司为了生存就只能从技术的角度,开发更多符合商业价值的产品。
而在这个过程中,技术中立则必然受到商业偏好的影响。这就是亚伯拉罕·卡普兰的工具法则——当人们只有一把锤子时,所有的东西看起来都像钉子。资本逐利是商业价值的根本,“中立”已无从谈起。
不中立的技术
实际上,“技术不中立”并不是一个新近的概念。甚至早在2014年,白宫发布的《大数据:抓住机遇,保存价值》战略白皮书就已有暗示。
白皮书强调了技术第一定律的重要性,就是“技术没有好与不好之分,但技术也不是中立的”。但是,其背景和大环境则是“大数据”的迅猛发展,是美国制定数据安全的风险管理作为“以数据为中心”战略重点,是美国以数据的“武器化”确保“信息优势”和“决策优势”。
在技术昭示了人们的技术目的时,充斥着人们的商业取向时,走向“技术不中立”成为必然的趋势。数据收集是人工智能技术设计进入实践领域的起点,而人工智能侵权在此阶段便已悄然产生。
事实上,人工智能时代以Web2.0作为连接点沟通着现实世界与网络虚拟世界,而政府和企业则利用 Web2.0不可估量的数据收集功能将网络用户活动的任何痕迹都作为数据收集起来,未经加密的数据使得蕴含于其中的大量个人信息和隐私犹如“裸奔”被他人为谋取私利泄漏或进行不法利用。这就是技术不中立的第一步。
随着大数据和人工智能迅猛发展,当前,私人空间与公共空间的界限已经日益模糊,它无所不在且具体而微,以隐蔽的微观渠道抵达用户的身体和姿态并弥散于生活的每一个角落。人工智能技术俨然成为了福柯意义上的一种承载权力的知识形态,它的创新伴随而来的是控制社会的微观权力的增长。它掌握在国家手中,也可以被企业、公司所拥有。
于是,在技术创新发展的时代,曾经的私人信息在信息拥有者不知情的情况下被收集、复制、传播和利用。这不仅使得隐私侵权现象能够在任何时间、地点的不同关系中生产出来,还使得企业将占据的信息资源通过数据处理转化成商业价值并再一次通过人工智能媒介反作用于用户意志和欲求。这是技术不中立的第二步。
现在,人工智能时代算法对人类的影响几乎渗透到了生活各领域并逐渐接管世界,诸多个人、企业、公共决策背后都有算法的参与。与传统机器学习不同,深度学习背后的人工智能算法并不遵循数据采集输入、特征提取选择、逻辑推理预测的旧范式,而是依据事物最初始特征自动学习并进一步生成更高级的认知结果。
这意味着,在人工智能输入数据与输出答案之间,存在着人们无法洞悉的“隐层”,也就是所谓的“黑箱”。倘若人们以一个简单的、直线的因果逻辑,或以数学上可计算的指数增加的关联来描述这个关系时,“黑箱”则是“白”的,即“黑箱”里的运作是可控的、输出结果是可预料的。
然而,一旦黑箱子不是人们所描述的情形时,箱子就是“黑”的,人们必须接受输入并不是明确决定了输出,反而是系统自身(即黑箱子)自己在决定自己。这一点很重要,显然,未来的技术可能比今天的技术更强大,影响更深远。当人工智能做出自己的道德选择时,继续坚持技术中立将毫无意义。这是技术不中立的第三步。
当然,技术受科技客观性的影响有其自身的发展模式和逻辑,这种客观面向使其可以成为人类社会可把握可依赖的工具,但技术设计者或者团体同样会有自己的价值导向并根据其价值观设计对科学意义的承诺。
与此同时,科技设计者在理解科学意义时也无法摆脱社会价值的影响。这意味着,任何技术都不是简单地从自然中获取,而是在特定历史环境、特定文化背景、特定意识形态下结合技术设计者的目的判断而建构起来的。
人工智能时代,技术早已不中立。当下,科技也已经逐渐显示出副作用。这背后的逻辑正是社会解释系统的发展已经远远滞后于科技的发展。技术由人创造,为人服务,这也将使我们的价值观变得更加重要。