【图灵测试】- Lessons Worth Sharing 01
图灵测试是指一组裁判在与被测试者完全隔开的情况下,通过打字方式向被测试者"对话". 在进行多次测试后,如果有超过30%的裁判不能确定出被测试者到底是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能.
图丨源自网络
正文
01
像人类一样思考
什么是意识?人造机器真的能进行思考吗?人类的大脑到底仅仅是由神经元组成的集合还是被存在的神秘意志所左右?
对很多科学家而言,这些都是关于未来人工智能的一些考虑思考的重要因素。但是对于计算机之父的英国数学家, 逻辑学家的阿兰-图灵,而言他关心一个更简单的问题:电脑可以如人类一样地交流吗?这个问题让他有了测量人工智能的想法,之后,这便演变为著名的 "图灵测验" .
计算机科学之父, 人工智能之父 - 阿兰.图灵
02
跳票的图灵预言
在1950年,图灵在那篇名垂青史的《计算机器与智能》论文里提出了所谓的"模仿游戏":一组人类裁判和隔离的人类被测试者只用打字交流,然后评价他们的回答。那么图灵假设, 如果用电脑取代了某一个测试者. 但是大部分裁判最终无法分辨一台电脑与一个人的区别,那么这台电脑就是足够"聪明"的。
图灵预计在2000年时候,当计算机拥有 100MB 内存就会轻易地通过图灵测试。但是图灵预计错了, 虽然我们现代的电脑具备更超大的内存,却也仅仅只有个别"狡猾"的计算机通过了图灵测试。那些通过图灵测试的计算机并不是用了超强的计算能力和前进的算法,而是用了十分取巧的手段迷惑了裁判。
03
那些"狡猾"的机器
虽然没有经过正式的测试,被称作 ELIZA 的程序成了历史上第一个成功通过了图灵测试。她仅用了一个十分简短的脚本,ELIZA 成功地迷惑了很多人,她模仿心理专家,鼓励裁判多说话,同时也将他们的问题再巧妙地抛回去。
另一个早期程序,PARRY 运用相反的方式,模仿了偏执的精神分裂症患者, 一直将话题转移回他自己预设的情形。它们成功欺骗了人类裁判, 其实凸显出了测试中的一个缺陷。人类裁判也会被机器所回答与智能无关的回复所误导。
尽管如此,年度竞赛比如洛伯纳奖,使测试变得更为规范,参与测试的裁判事先就知道有些对话的"人"是电脑控制。
虽然总体人工智能的质量上升了,但很多聊天的算法程序还是采用了与 ELIZA 和 PARRY 类似的欺骗技巧。1997年的获胜者,凯瑟琳能够进行惊人般的聪慧会话,但是仅限定在某个话题之内 -- 与比尔.克林顿 相关的讨论。
最近的获奖程序,"尤金·古斯特曼"拥有13岁的乌克兰少年的"性格",采用不纯正的别扭英文语法, 还有相对偏小的年龄, 被 33% 裁判理解为语言及文化的阻碍, 让他们认为与之对话的是人而非机器, 这样也成功通过了测试。
在这同时,其他的程式如 Cleverbot,采取了另一个方式通过分析与统计海量的真实对话数据,来决定最好的回答方式, 并且存储之前对话的记录,以便长期持续改善。尽管Cleverbot 的答复听起来非常像人类,但缺乏人类性格的一致性以及面对新的话题无法灵活应对, 则完全暴露了它是机器的事实。
问:你会下国际象棋吗?
答:是的。
问:你会下国际象棋吗?
答:是的。
问:请再次回答,你会下国际象棋吗?
答:是的。
你多半会想到,面前的这应该是一部机器。
04
未来的人类智能
在图灵的那个年代,谁可能预料到今日的电脑能够驾驶宇宙飞船,能操控精巧的手术,还能解答大量的数学方程,但是至今仍无法真正通过图灵测试.
人类语言是样如何巧妙及复杂的现象,连最大最全的字典都无法囊括。在于人类的聊天之中, 机器人会被简单的停顿,如"额...",或会被刻意误导的回答而弄得团团转。
一个简单的对话场景,比如"我从冰箱里拿出了果汁,然后给了他,但忘了看生产日期",这就需要丰富的生活知识与人类直觉来理解。
事实证明若要电脑模仿人类对话,要比单纯地增加内存, 提高运算量, 改进算法要更加复杂。在人类不断靠近图灵目标的同时,我们也还需考虑下与"意识"相关的一系列问题。
“现在的AI进步之快远超我们的想象。像国产的绝艺、日产的ZEN虽然和AIpha o还有着较大差距,但已经表现出超强的实力了...我相信未来是属于人工智能的。”
- 柯洁
写于与AlphaGo对决前夜