今天,当我们回头看看霍金当年对人工智能和基因科学的语言,会为这位科学巨匠的远见所折服。霍金生前最大的忧虑,也许却被世人所遗忘。那就是:人工智能是人类真正的终结者,彻底开发人工智能可能导致人类灭亡!霍金一直在苦口婆心地劝说着:人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。因此,人工智能的成功有可能是人类文明史上最大的事件。但人工智能也有可能是人类文明史的终结!而在霍金在生前写下的最后文字《大问小答》(Brief Answers to the Big Questions)这本书中,霍金则表达了他对人工智能+基因科学的担心:一群超级人类将通过基因工程,甩开其他人类,最终接管地球。如果有人设计计算机病毒,那么就有人设计不断自我完善、直到最终超越人类的人工智能,其结果将是一种新的生命形式。这种超级人类一出现,未改进的人类就再也不是他们的对手,严重的问题由此产生。原版人类将逐渐灭绝,或变得无足轻重。一个自我设计的种族将崛起,加速自我改良。而人类若能重新设计自身,就有望向外扩张,殖民其他星球与恒星。”今天,霍金的这个预言或将成真了:以前几次技术革命,顶多是人的手、脚等身体器官的延伸和替代,人工智能则是对人类自身的替代,基因科学则连人类自身都要改变,它对人类社会家庭乃至整个社会的冲击,将是前所未有的。试想想这一幕吧:很可能,在不远的将来,原版人类在超级人类面前,就可能像臭虫面对人类一样无力和脆弱。你想想,当你把一只臭虫冲进下水道的时候,你的内心起过一丝波澜?请记住:从今天起,基因科学不再是科幻小说,不再是阅读理解,不再是新闻标题,不再是试管中荡漾的液体和双螺旋体中孱弱的灵魂,而是实实在在的宿命。未来已来,善良的人们啊,你们要慎重!