陈根:为机器立心,为智能立命
文/陈根
当前,陪伴机器人依然处于初级阶段,如何在人与机器人交互以前对机器人进行设计,是一个不可回避的问题。机器人不是传统意义上的简单商品,当机器人展现人的形象并拥有人的属性时,为机器立心是设计机器人的重要前提。
事实上,人在与机器的交往过程中往往会受到机器行为方式的影响,这种影响通常是无形的,但又确实存在。这提示设计者,在与人相似的机器人设计上,应使其能够按照人类的规则来与人类交往。
性爱机器人是未来陪伴机器人的一个重要细分领域,显然,在设计性爱机器人时,就不能仅仅把它们当成“情趣用品”来设计,而是需要把人际性爱交往的某些基本规则(如知情同意原则、相互接受原则)纳入性爱机器人的程序中。
再比如,在设计机器人士兵或机器人警察时,就需要避免把其仅仅当作军事机器人来设计。机器人士兵与机器人警察的道德判断与行动都直接涉及人的生命,因而它们的设计与生产不仅需要透明、公开,还需要接受某个公正的全球机构的监管;必须要把对人类核心道德的维护与遵守作为强制性条款编入这类机器人的程序中;机器人士兵与机器人警察的设计需要遵循某些共同的全球标准。
此外,尽管以强人工智能技术、基因工程技术等为基础的机器人能够享有作为道德承受体的道德地位。但显然,机器人最多只能成为显性道德行为体,而不是像成熟人类个体那样的充分的或完全的道德行为体。
这是因为,虽然机器人能够履行常规的道德责任,但当面临复杂的道德境遇或需要做出艰难的道德判断与道德选择时,机器人没有几亿年的进化史留在人类身上的刻痕,没有生物的直觉和本能,终究需要正常而理性的用户或专家需要帮助机器人做出相关的判断和决定。
这也意味着,机器人的设计者需要为机器人的行为承担部分道德责任。因此,在设计机器人时,一开始就应该想办法限制那些别有用心的设计。比如,不应该制造那些蓄意撒谎的陪伴机器人,一旦机器人撒谎的能力得到开发,就难免出现陪伴机器人包庇人类不当行为或违法行为的情况。
人才是机器人的道德监护人。随着机器人越来越多地介入我们的生活,人类不可避免地要进入人机共处的时代,我们不可避免地要与机器人“比邻而居”。但在这样的新时代到来前,人机交互的关系都值得也应该被我们持续反思,对于机器人,只有审慎和克制,才不会带来自弃与沉溺。