章文光、贾茹|人工智能的社会伦理困境:提升效率、辅助与替代决策
作者简介
章文光(1973—):男,北京师范大学政府管理学院教授、博士生导师,研究方向:国家治理与公共政策;
贾茹(1992—):女,北京师范大学政府管理学院博士后。
摘要
本文基于应用场景探讨人工智能的社会伦理困境,依据人机关系互动强度的高低将其划分为三个层面:在提升效率方面,人工智能解决信息不对称问题,却因信息冗余带来选择困境;提升生产效率的同时诱发结构性失业风险。在辅助决策方面,机器学习算法为公众提供个性化服务的同时加剧社会不公现象;基于预测的提前干预固然能够未雨绸缪,然而未发生即干预具有过度控制和有罪推定的嫌疑。在替代决策方面,模式识别、人机交互等提升技术可行能力的同时削弱人类实践能力;服务智能的深度应用解决社会发展的痛点,但是衍生的新交往模式使社会关系面临破改废立。为此,需要政府、企业和公众树立情景式的人机关系价值观,建立健全信息管理、失业保障和智能服务共享机制,确保公共干预以不侵害个体权利为前提,提升人类自主实践能力并构建健康有序新型社会关系。
关键词:人工智能;人机关系;社会伦理;伦理规制;不确定风险;效率
人类正在经历以人工智能技术为核心驱动力的“第四次工业革命”,特别是21世纪以深度学习、模拟脑技术突破为标志,人工智能(Artificial Intelligence,AI)作为“通用目的技术”,可谓是一场史无前例的科技革命,它对人类经济活动产生广泛而深刻的影响,成为推动经济社会发展和改善公众生活质量的巨大引擎。然而当我们使用智能手机浏览满目琳琅的商品时,是否会迷失在海量信息中而难以决断;当我们决定购入商品而使用指纹快捷支付时,是否会担忧个人信息被非法窥探;当我们习惯于朋友圈互动、微博点赞时,是否发现与亲朋好友的真实交往时间已被挤占。实际上,从日常生活到经济发展再到公共行政,人工智能应用带来机遇和效率的同时,无不伴随着不确定性风险和社会伦理困境。既有社会伦理规制难以适用悄然来临的智能社会,智能经济繁荣发展之下潜在着因急功近利而诱发社会危机的可能,尤其是公共部门存在将智能化作为创新社会治理的灵丹妙药和解决社会治理难题的万能钥匙倾向时。为此,本文尝试审视人工智能社会伦理的困境,破解人工智能发展方向的迷思,辨明人工智能伦理规制的靶向,为政府、企业和公众提供在人工智能应用过程中趋利避害的思考起点,助力人工智能社会伦理规制政策设计。
一、人工智能社会伦理的研究综述
伴随着由弱人工智能发展到强人工智能,人工智能实现了从“无自主意识”到“自主性学习”、从“被动利用”到“主动探索”的转变,在极大提高人类社会运行效率的同时,引发学界对人工智能应用后果的价值反思,人工智能社会伦理问题随之成为国内外跨学科研究的核心议题。人工智能社会伦理指人工智能技术的研发设计与应用实践的合理性边界,以权利—义务关系为核心,包括人工智能研发与应用的道德规范及其价值精神存在与演进的社会条件、社会价值、交往方式、结构体制的合理性等内容,也可将其理解为人工智能应用于社会的积极影响与消极影响。维纳在《人有人的用途——控制论与社会》中表达了自动化技术将会造成“人脑贬值”的担忧;Kurzweil反对人工智能将掌控世界的悲观论调,在《灵魂机器的时代》和《奇点将近》中阐述了计算机将超过人类智能并助力人类在大约50年内接近永生;20世纪初期Anderson在《走向机器伦理》中关注人类使用机器的行为结果,并提出赋予机器伦理观念以帮助人类进行智能决策,标志着人工智能社会伦理研究由描述走向了论证。伴随着强人工智能的爆发式研发,英、美、德等国高度重视人工智能社会伦理问题,纷纷制定战略指导并成立管理机构。2017年中国在《新一代人工智能发展规划》中,提出“2025年初步建立人工智能法律法规、伦理规范和政策体系”的建设目标。国内外关于人工智能社会伦理的研究日益增多,研究领域由单一的技术伦理扩展到人机交互关系伦理,主要包括隐私安全、权责关系、社会公平、社会关系四个方面。
在隐私安全方面,人工智能通过获取海量、多元和实时数据训练机器学习算法,公众的隐私信息在此过程中不可避免地被采集与存储,以贾开为代表的学者认为机器学习算法通过基于大数据的自我训练过程形成规则集并应用于不同场景下的感知和决策,已摆脱对人类表达能力的依赖而实现了自我生产,所产生的不可解释隐忧与自我强化困境为个人隐私与信息安全带来隐患;闫坤如等认为人工智能系统外部同样存在风险,诸如被攻击、侵入、干扰、泄露或者非法利用。在权责关系方面,段伟文等认为计算机的自主意识性与人类期望的差距较大,其不具备承担全部道德责任的能力;以Harnard为代表的学者开展赋予机器人道德责任的研究,提出以道德测试裁决机器人是否需要在事故中负责。在社会公平方面,Veale、张玉宏等认为算法歧视主要包括算法技术和数据输入两方面,设计人员的主观判断、机器学习算法的黑箱属性、数据的偏见、样本的大小与敏感性等因素都会导致算法歧视而加剧社会不公现象。在社会资本方面,Demiris和Rantz认为人工智能放大了信息处理和知识加工的能力,机器人的高仿真及个性定制正在解构传统的家庭伦理关系,交互式虚拟体验使真实的社会交往范围和频率减小。目前人工智能社会伦理研究内容虽然涉猎较广,但是偏好宏观的问题概述而忽视微观的应用情境,止步于描述人工智能对社会伦理的负面作用,未能清晰呈现正负双重效应及规制方向。
二、人工智能社会伦理困境的讨论前提
人们对人机关系的认知状况直接决定了其对人工智能社会伦理困境与规制方向的判断。围绕人机关系的国内外研究存在技术决定论、技术中立论和技术从属论三种认识。技术中立论认为人工智能只是手段与工具,本身并无善恶好坏之分,关键取决于人类使用它的目的及将它置于何种条件下使用;技术决定论认为人工智能的信息收集、处理和反馈能力超过人类智慧,将会出现人脑贬值现象,特别是当AI具备自我意识,发展到可以独立思考和自主决策的超级智能阶段,将有摆脱人类控制或控制人类的可能;技术从属论认为人是机器的尺度,人工智能应该无条件地从属人类的社会秩序,不应该具有道德地位和进行价值判断的权利,“机器人学之父”阿西莫夫据此提出了机器以不伤害人为前提等三定律。
对人机关系的认识分歧来源于人工智能是否能够作为道德主体的伦理学思考,技术从属论根源于康德主义,Moor认为道德能动者需要自由意志、意向性、动机和理性,而人工智能本质上是人类已有明述知识的转移、利用,所以并不具备道德资质。技术决定论反对康德主义,一方面,以Sanders为代表的学者认为自由意志和意向性是行动的附加属性,并不会在行动中影响真实世界,人工智能虽然并无道德资质,却可以作为能动者而享有主体地位;Floridi论证了能动者成为道德主体的哲学抽象方式;Wallach和Allen阐述了通过内置伦理范畴和道德逻辑使能动者成为道德主体的实证路径。另一方面,以Leopold为代表的生态伦理学家主张将道德范畴扩展到一切存在物而警惕以人类为中心;Sloman明确阐述人工智能具备思考和感知能力,将其纳入道德范畴合情合理。技术中立论受到系统哲学的影响,以Wallach为代表的学者认为技术带来的问题通常由特定的技术、人、制度、环境等要素与社会技术系统其他要素相互影响而产生,人工智能是否具有道德主体地位并无定论,而是取决于整个社会技术系统;部分学者基于Torrance的观点认为人工智能的道德主体地位可以依据具体情况划分为道德产出者与道德接收者。
对人机关系的认识分歧延伸到裁定人工智能事故中的权责归属。人工智能引发的事故不涉及人的主观故意,但客观行为是通过人所编制的算法预先设定,而算法本身能够实现自我强化,人工智能与人在设计与运行中的复杂关系使道德和法律的规范对象变得难以确定。支持技术决定论的学者以A-PACHE系统为例阐述机器承担道德责任的可能;认同技术从属论的学者认为由人编制的算法和数据是人工智能的运行基础,人工智能的自主意识未能达到承担事故责任的程度,故应该由参与人工智能发明、授权和分配过程中的人共同承担责任;支持技术中立论的学者认为算法无法预见人工智能带来的全部后果,程序员也不应该完全免责,应对人工智能采取强制保险和基金赔偿。
实际上,人机关系不存在放之四海而皆准的限定,认识分歧源自学术界始终将人机关系视为一个抽象整体,忽视了人工智能的技术发展阶段与具体应用情境,以及情境中人类如何看待人机关系中的自身。基于人工智能的技术能力与应用场景探讨人工智能社会伦理困境,依据人机关系互动强度高低,可以划分为“作为工具的人工智能提升效率、作为合作者的人工智能辅助决策、作为支持者的人工智能替代决策”三个递次层面进行分析与归纳。一是在提升效率方面,人工智能对于海量数据的处理能力解决了信息不对称问题,然而信息冗余却带来了选择困境;人工智能在提升生产生活效率的同时,替代了大量从业人员诱发“结构性失业”风险。二是在决策辅助方面,机器学习算法在为公众精准提供个性化服务的同时加剧了社会不公现象;基于预测的提前干预固然能够未雨绸缪,然而未发生即干预具有过度控制和有罪推定的嫌疑。三是在替代决策方面,深度学习、增强学习等算法与模式识别、人机交互等技术提升了人类的技术可行能力,却加剧了技术依赖程度,不仅削弱人类实践能力,而且难以避免无法控制的黑箱和数据驱动造成的偏见;服务智能的深度应用解决了日常生活与社会发展的痛点,但是其衍生的新交往模式使社会关系面临破改废立。
三、人工智能社会伦理困境的具体表现
(一)信息不对称问题的解决与信息冗余带来的选择困境
伴随着计算机与互联网的快速发展,信息数量、传播速度、应用程度均以几何级数的方式快速增长,人类进入信息爆炸时代,一方面信息催生了人工智能,即“数据产生—使用—新数据产生—再使用”的闭环成为人工智能自主学习和知识管理的基础;另一方面,人工智能反哺信息社会,即人工智能不仅打破了信息收集、传递与应用的时空限制,提升了信息收集的全面性和准确性,实现了信息传递的及时性和即时性,减少了应用过程的人为干预与客观壁垒,行为主体可以在信息平台上实时且自由地沟通,弥补了“信息不对称”的鸿沟,而且人工智能技术可以为需求与供给之间提供高效、精准的信息匹配,有效减少科层体系在纵向传递过程中出现的“信息失真”问题,以及在横向传递过程中出现的信息截流情况,提升了信息的利用效率与使用价值,为营造开放、系统、透明、公正的社会环境奠定了运行基础,为扩大有序的公共参与和有效的政府治理提供了通畅渠道。
人工智能解决了信息不对称导致的有限决策,却也因海量信息汇集而带来选择困境。人工智能加剧了信息更新速度与承载体量,当有限的人脑负荷能力无法承受时,信息便无法被决策者有效地获取与吸收,信息冗余现象随之产生。重复、低质、无用、虚假信息的广泛存在和互联网信息间结构联系的缺乏进一步加剧了信息冗余程度。信息冗余会导致信息贬值、媒介信誉受损,如自媒体的裂变式发展使公众难辨网络信息真伪,很多情况下公众都需要求证于官方媒介。决策者一方面会迷失在海量信息中,浪费时间和精力,遗忘目标和程序;另一方面会陷入选择困境,在众多方案中反复甄别无法取舍,造成决策拖延而影响问题解决。
(二)生产效率的提升与结构性失业的增多
无论是作为生产要素型技术,还是作为自动化生产技术,人工智能技术都改变了传统生产方式。相较于人工而言,“数据+算力+算法”锻造的智能机器具有工作时间长、完成质量高、维护成本低、错误率低、客观理性等比较优势,大幅提高了生产效率。数据显示,通过自动化计算机执行常规任务,在全球低端范围,每年可节省9670万个小时、33亿美元;在全球高端范围,每年可节省时间达到12亿小时、411亿美元。智能机器不仅能够将劳动者从脏、累、重复、单调的工作中解放出来,而且可以胜任需要专注的高精度任务或者有毒、有害的危险任务,比如新冠肺炎疫情期间的无人配送机与自动消毒机、矿难与火灾现场的无人搜查机等。
人工智能在提高生产效率的同时势必带来劳动力的结构性变化,即人工智能既会使摩擦失业上升,也会带来新的劳动力需求。据中国人力资源和社会保障部提供的数据显示,2014年至2017年企业因使用机器人相关岗位员工累计减少12.5万人、增加10.6万人。短期内劳动者在新旧职业和岗位间的转换不大可能实现无缝对接,劳动要素大范围重新配置也不可能无摩擦实现,容易引发“结构性失业”风险。日本智库野村综合研究所的研究表明,820种职业、2069项业务工作中34%的工作可被机器人替代,首当其冲的是简单重复、高度流程、枯燥繁重等类型的工作,配送员、流水线工人、快递员、接话员等劳动者将面临失业威胁。结构性失业增多不仅使大量劳动者生产能力被搁置,浪费社会资源,有损经济良性运行,而且劳动力失去收入来源可能会激化劳资矛盾,危害社会安全。
(三)精准服务的供给与社会不公的加剧
人工智能可以自动处理各类型数据,进行用户画像,判断用户需求,开展相关分析,完成具体任务,如精准识别病灶医学图像并判断是否为疾病,定位致病基因并实施靶向治疗;还可以通过个性化推荐算法提供自动推送、智能搜索、信用评分等精准服务。近年来,图像识别、语音识别技术等机器视觉技术的突破使得人工智能可以初步模拟“人”的交流方式为公众服务,以降低运营成本和提升用户体验,诸如阿里巴巴的智能客服将外部消费场景和后台业务流程有机融合,将人机对话语义意图的精准匹配率提升至93%,满意度比传统自助服务提升了1倍;远程核实身份、智能安防等为银行、保险等泛金融行业和地产、公安等泛安防行业提供了解决方案。
人工智能通过精准识别用户需求提供个性化服务的同时加剧了社会不公现象,一是个性化推荐算法会强化既有偏好,固化个体行为并拉大社会差异。诸如当消费者在网络商城选购商品时,依照价格从低到高进行浏览,倘若消费者不主动调整浏览偏好,廉价物品推荐会接踵而至,不断强化公众对低价商品的迎合程度;同理,追求高质量的消费者对优质商品认同感也会被不断强化,消费差距越来越大,社会不公感滋生。二是机器学习算法基于“大数据集”形成“规则集”并应用于具体场景的过程,遵循以整体特征推断个体行为的基本逻辑,可能造成算法歧视。与此同时,人类社会的不确定性和复杂性客观上决定了“大数据集”的不完备性,数据缺失导致算法所形成的“规则集”偏差可能强化既有的社会不公现象。三是目前人工智能技术的掌握和使用集中在中产及以上收入群体、城市居民和年轻公众,如贫困家庭无法支付智能护理的高昂费用,老年人因获取信息有限对作为新生事物的智能诊断接受度较低等,优质智能服务无法在全社会实现共享,间接拉大社会贫富差距并造成公平正义失衡。
(四)基于预测的提前干预与未发生即干预的隐患
人工智能基于强大的云计算能力,能够对实时、海量信息进行搜索、比较、聚类、相关、时空序列分析等,实现对复杂事物发展趋势的预测。智能预测一是应用于危机管理领域,对公共卫生、金融市场等场景内的重大风险进行预警,为提前采取干预措施以减少安全隐患提供智力支撑,如由平安科技、重庆市疾病预防控制中心与陆军军医大学等共同研发的AI和大数据的流感实时预测模型,不仅克服了传统流感监测“定时抽样、每周汇总”的结果滞后问题,而且能够准确捕捉到流感发生的季节性趋势,既有助于公共卫生部门科学配置卫生资源以合理应对患者流量,又可提升公众预防意识以改善国民健康状况。二是应用于日常行政领域,对交通、医疗、住房、网络等场景内的事务发展和舆情趋势进行预测,以提高公共管理有效性和公共服务可及性,诸如伦敦安装大量传感器监控空气质量,通过建模和排放预测技术预防空气污染;杭州市政府与阿里巴巴集团合作共建“城市大脑”——国家新一代人工智能开放创新平台,通过电子监控设备收集道路、车辆等交通信息,预判城市交通整体状况,合理调配公共资源以疏解交通拥堵压力。
智能预测在为公共危机和日常行政未雨绸缪之时,也引发了公众对于提前介入行为是否正当且必要的担忧。一方面,智能预测系统通过摄像头、拾音器、数据库等,获取性别、年龄、体貌特征等隐私信息。如近年来流行的支付APP记录着人们每一笔消费,运动APP掌握着人们每一天的行动轨迹,社交APP保留着人们每一次谈话内容,似乎每一个人均在人工智能所构建的大网中“正在被监视”(You are being watched)。人工智能明显地入侵私人生活,威胁个体权利,其正当性受到诘问。另一方面,基于智能预测的提前干预是否必要也值得商榷,我们是否应该为尚未发生的一种可能性付出代价。如公检法部门采用人工智能技术预测潜在的犯罪现象,以便提前布控以打击犯罪,这种行为本身所蕴含的有罪推定假设破坏了无罪推定的法理价值。部分智能犯罪风险评估系统用于预测服刑人员再次犯罪的概率并据此决定是否减刑,但是犯罪行为发生与否往往存于人的一念之间,这种预测结果忽视了服刑人员在未来改过自新的可能。
(五)技术可行能力的提升与技术依赖程度的加深
传统决策者受制于信息收集、处理和分析的有限能力,难以从全局角度出发进行科学决策,甚至部分决策者桎梏于科层体制、微观环境或个人情感,采取的问题解决方案可能差强人意、有失公允。人工智能借助大数据、精算超算术、区块链等新一轮技术应用,不仅可以通过对实时数据和历史数据的深度挖掘,实现需求分析、实时监测和趋势预测,自动生成相应问题解决方案,并且可以依据场景数据进行迭代与优化,实现“产生—存储—应用—更新”,即借助于全渠道整合数据和机器式自我进化升级,提供更加精确、有效的解决方案,也就是说人工智能技术的可行能力正在不断增强。数据显示,谷歌、微软、IBM等美国科技企业已取得智能数据分析与决策方面的专利达5203项,广泛应用于医疗、金融、娱乐等行业决策过程,如应用于克利夫兰诊所和MD安德森癌症中心的Waston系统、服务于2006年至2016年间我国40896例外科手术的达芬奇手术机器人等均为医生提供了科学、可靠的医疗决策,无人驾驶汽车本质上亦是人工智能在动态博弈环境中代替人类做出高标准化程度决策的载体。
伴随着人工智能技术的优化升级,智能决策的准确性将越来越高、涉及面将越来越广,人工智能将会替代人类处理更多社会事务。长久以往,当新问题出现时人类会不自觉地通过人工智能技术寻求解决之道,进而形成技术依赖,并且依赖程度会随着人工智能的技术升级而不断加深。技术依赖不仅会压缩人类的思考空间、削弱实践能力,造成人脑贬值,而且会使人类习惯于推卸责任和消极怠工,当依赖程度足够深时,人类将会被技术所控制。Astell认为智能机器人可能会机械地控制使用者,并逐渐使其变得失去自主性;比尔·盖茨、霍金等曾公开表达对智能机器可能突破人类控制从而威胁人类生存的担忧;加之现阶段文件损害、输入设备受损、安全系统漏洞、有瑕疵编程等诸多不可控因素所造成的安全隐患已让人类疲于应对;更遑论人工智能具备深度自主学习能力,能够完成自我调适,算法结果不可预知,将会产生设计者无法破解的“黑箱难题”,人类受限于漫长的生物进化进程可能无法与其竞争,将会面临着被人工智能控制的风险。
(六)智能生活的普及与社会关系的重构
人工智能服务于衣食住行等生活场景,满足了公众个性需求,创造了美好生活的一种可能。一方面,人工智能密切了场景间的联系,使生活环境更加舒适、安全,以智能家居为例,其兼备建筑、网络通信、信息家电、设备自动化,集系统、结构、服务、管理于一体,使用者可以远程控制家电、即时感应安全风险、随时切换情境模式。另一方面,人工智能打破了空间限制,使社会交往更加及时、便捷,以智能APP为例,美团外卖联结了商家、用餐者、送餐员而便利了订餐服务,滴滴打车联结了司机、乘客而节省了出行时间;层出不穷的人工智能机械工具、电子产品和娱乐设施等助力了特定生活,诸如护理机器人可以协助老年人处理日常事务、监测健康状况并提供生活陪伴,解决了居家养老无法实时看护的现实问题。
智能生活的普及势必改变传统生活方式并重构社会关系。一方面,高仿真及个性化定制的智能机器人正在解构传统人伦关系,当他们以宠物、护理工、保洁员甚至陪伴者等身份进入家庭,会成为人们生活中不可或缺的成员,这将改变既有家庭关系并逐步削弱社会资本,如智能机器人在减轻子女照料父母生活负担的同时,也导致子女与父母间的日常联结和情感交流会越来越少,尽管智能机器人可以使用视频通讯等手段帮助家庭成员进行沟通交流,但是网络沟通与真实交往大不相同,可能降低子女责任感、滋生情感认知障碍、加剧社会孤独现象。另一方面,人工智能营造的虚拟世界所带来的浸入式体验,会助长“精神麻木症”而使人们远离现实生活,加之虚拟世界中不受节制的自由、暴力、色情等因素会影响个体人格的健康发展,如智能技术通过对个体情绪和行为的精细分析,设计关卡、道具、场景等上瘾机制使缺乏自控力的青少年沉迷网络游戏,网瘾少年不仅逃避学习与生活,甚至出现自我刺激成瘾、辨别现实障碍、身份认同焦虑等心理健康问题;即便是具有自控能力的成年人,其社会关系亦被人工智能无形重塑,如谷歌的媒介算法偏向“新闻价值”的核心地位,脸书的媒介算法偏向“家庭和朋友”的核心关系,舒适便捷的智能生活会有意识或无意识地支配着人们的价值取向和行为方式。
四、人工智能社会伦理困境的规制方向
基于对人工智能社会伦理困境的反思与前瞻,公共治理应以增进人类福祉为宗旨,挖掘利用人工智能应用积极作用,预防祛除人工智能应用消极影响。首先需要树立正确的人机关系价值观,明确人类与人工智能之间并非谁掌控谁的抽象关系,而是需要结合技术发展阶段和具体应用场景动态研判的情境式关系。当人工智能应用于农业、工业、电力及勘探等领域助力效率提升时(如智能生产线、智能勘探器等),可以作为高效工具而为人类所掌握,此时责任主体应该是人类而非人工智能;当人工智能应用于金融、安防、交通、医疗等领域辅助人类决策时(如城市交通智慧系统、智能医疗诊断助手等),可以作为可靠智力支持而与人类通力合作,此时责任主体应该是人类和人工智能,由于人工智能是否具有道德主体地位和作为法律行为人备受争议,可行性做法是责任由从设计到应用的主要参与者共同承担;当人工智能实现人机融合或者可以替代人类作出决策时(如无人驾驶汽车、电子合成人等),其具有难以辨明的复杂属性,无法清晰划分权责关系,可以引入强制保险、赔偿基金等第三方作为责任主体。
在情境式人机关系的指导下,公共部门规制人工智能社会伦理主要包括自上而下的规制原则和自下而上的规制措施两个方面,前者可以参考已取得国际共识的规制原则,诸如美国、英国、欧盟制定的《人工智能设计的伦理准则》《机器人和机器系统的伦理设计和应用指南》《阿西洛马人工智能原则》等,原则涉及公开、公正、知情、人权、福祉、问责、安全、包容、人的能动性和监督能力等,强调在保障个体权利的前提下增进公共利益,进而实现公正且良善的智能生活;后者可以观察、分析、归纳人工智能社会伦理正负效应及成因,以一般原则为指导,兼顾地方性、特殊性和可操作性,从而形成具体的规制措施,具体参考方向如下:
(一)建立信息管理机制,培育公众选择能力
针对人工智能处理海量信息所带来的选择困境,一方面需要继续升级数据挖掘、个性化推荐等信息技术,及时剔除低质、无用、虚假信息,有效构建质优、有用、真实信息间的结构关系;建立健全信息管理机制,在充分发挥市场作用基础上,规范信息收集、处理和应用秩序,确保信息安全和技术可靠。另一方面注重培育公众的信息分辨能力,倡导交互式阅读能力和跳跃式思维习惯的养成以减少信息迷航;鼓励公众树立目标导向、增强时间观念、保持理性思维、发挥主体能动性以增强选择能力。
(二)制定失业补偿政策,降低结构性失业风险
公共部门可以制定失业补偿政策,一是通过发放失业补贴、消费券等物质补偿措施,满足失业劳动力的生活需求;二是通过心理疏导、社区活动等精神支持措施,减轻失业劳动力的心理压力;三是评定失业劳动力工作能力以推送就业信息,培训失业劳动力新技能以匹配新工作需求;四是大力发展科学、技术、工程、艺术与数学融为一体的STEAM综合教育,弥补传统单科教育的弊端以适应人工智能技术的发展。政府理应努力建立从物质到精神、从评定到再就业的全面社会保障系统,减少结构性失业对社会稳定冲击和人力资源闲置。
(三)建立智能服务共享机制,维护社会公平正义
公共部门应结合受教育程度、年龄、性别等群体差异引导人工智能研发与应用方向,必要时进行财政补贴以确保智能服务在各阶层中共享;加大对欠发达和乡村地区人工智能教育资源投入,在义务教育阶段设置相关课程,即从人工智能资源掌握的源头出发维护社会公平正义;着力解决数据或算法加剧社会不公的现象,对数据和算法进行细节备案、伦理审查、风险评估、过程监督;在公众知情、政府监管、行业规范、媒体监督的共同作用下,确保数据来源合理合法、算法公开公正、责任划分清晰、反馈畅通有效。
(四)公共干预以不侵害个体权利为前提、以保障公共利益为宗旨
公共部门需要审慎对待基于智能预测的提前干预,一是数据采集需要公众知情且同意,政务数据采集用于公共目的,商务数据采集遵守法律规范;二是确保公共干预以不侵害个体权利为前提,能够公开干预细节、接受公众质询、实现动态调整;三是鼓励公共服务的提前供给,监督行政管制的提前干预;四是给予公众“被遗忘的权利”,尤其对诸如刑满释放人员、戒毒改过人员等过错方及其直系亲属采取数据保护措施,助力特殊群体融入社会生活。
(五)提升人类自主实践能力,避免过度依赖智能技术
人工智能把人类从繁重劳动中解脱出来不意味着公众可以懒惰懈怠、无所事事,公共部门一方面理应善用人工智能技术健全社会实践基地,助力公众关注日常生活、既往经验、社会交往与知识运用过程,全面提升人类的实践能力,同时培养其批判性思维和智能化思维,以打破固有思维模式,开展更深层次的创新实践活动;另一方面需要积极引导公众思考更高级生活方式,关注艺术、美学、教育、哲学等人工智能无法替代的领域,从事更具挑战性、使命感和社会价值的工作,帮助公众意识到人工智能不是控制了人类,而是助力了人类,使其摆脱低级趣味、不再被工作驱使,真正实现独立自主。
(六)搭建真实社交场景,塑造健康社会关系
智能生活对社会关系的重构利弊并存,公共部门一方面要“趋利”,即倡导公众尽享智能生活的舒适便捷,并且修订法律规定,改善公序良俗,用以规范人工智能影响下的社会关系,诸如明确护理机器人与家庭成员间的权利、义务和责任关系。另一方面要“避害”,即搭建真实社交场景,使公众在智能生活中亦能彼此亲近,诸如扶植社区建设、兴办文体活动、营造面谈空间等;建立由政府、学校、家庭、行业多方参与的智能生活公治机制,采取强制性措施严厉打击网络色情、暴力等有害信息,共同构建福祉共享、健康有序的新型社会关系。
来源:《东岳论丛》 2021年第8期
(注释已略,如需请查原文)
本期编审:吉磊
本期编辑:隋晓周