“人工智能的全面发展可能意味着人类的终结”,霍金在警示什么?
近来,人工智能成为热词,这次不是因为某部科幻电影,而是因为理论物理学家斯蒂芬·霍金、特斯拉公司首席执行官埃伦·马斯克等一些科学家、企业家及与人工智能领域有关的投资者联名发出的一封公开信。他们在信中警告人们必须更多地注意人工智能的安全性及其社会效益。要警惕其过度发展,并提醒科学家和研发人员关注强人工智能的潜在威胁,因为得到充分发展的人工智能或许预示着人类最终被超越。
斯蒂芬·霍金曾警告“人工智能的全面发展可能意味着人类的终结”;伊隆·马斯克担心人工智能的发展可能是人类生存面临的最大威胁;比尔·盖茨则提醒人们要小心人工智能。由于他们的影响力,人工智能威胁论因此得到广泛传播。而有一个有趣的现象是,提倡人工智能毁灭人类的基本是物理学家,企业家,但最了解人工智能原理的科学家,确几乎没有一位认为人工智能对人类有威胁。
在人工智能的问题上霍金认为,“如果人类继续这样无止境地开发人工智能,那么总有一天,人工智能将拥有自己的发展方式。”而对于这个问题有人有着不同的看法。库兹韦尔表示,他更愿意相信,如果人工智能真正地融入了社会,它将帮助人类解决一些社会问题。但是他也承认,没有人能够保证人工智能一定会有利于人类发展。“我认为,面对潜在的风险,最好的方式就是继续保持民主、包容和自由的价值观。”
人类对未知事物产生恐惧并不是什么新鲜事,但是,著名的理论物理学家及硅谷企业家和微软创始人对人工智能的担心,则为这种恐惧增添了新的注解。像科幻电影一样,担心机器人会奋起革命似乎有点自欺欺人,重要的是如何合理的进行分析。
如果人工智能只是一种可以代替人类工作的机器,它的出现并不足以让人们恐惧。当机器帮助我们创造世界上大部分财富的时候,困扰人类的充其量不过是一个从未得到解决的财富分配问题,还不足以带来毁灭性的灾难。也就是说,人工智能存在比替代人类工作更深层的威胁。
从历史来看,每一次新生事物的诞生,某些人都会感觉有威胁。现在机器人来了,很多工厂流水线上的工人就感觉要下岗了。历史上从来没有一样新生事物会受到全部人的欢迎,总有一部分人会感受到威胁。问题是怎样面对威胁?人类不能因为有一部分人受到威胁,或者有反对的声音,就不前进了。
任何事物都有两面性,科学也是一把双刃剑。科学新发现、新发明在推动社会向前发展,在对一部分人造成威胁的同时,也创造出很多发展机遇,只要我们掌握新知识、新技术,就会找到广阔的发展空间。如果我们能直面威胁,积极应对,顺势而为,勇于创新,更有可能屹立潮头,成为新时代的骄子。
人工智能的发展是伴有威胁的,其中最为突出的威胁是超级智能机器或许有一天会反制人类、奴役人类。尽管这一威胁在未来几十年内不会成真,但一些专家已对此表达了严肃关切,呼吁妥善引导人工智能发展,避免未来可能出现的隐患。