预测模型都是伪命题?(塔勒布作品读后感之四)

炒股引发的思考

从2006年开始,我研读过一本关于股票技术的书,学到很多技术术语,如“三只乌鸦”、“头肩顶”、“乌云盖顶”...... 甚至自己钻研通达信公式写点代码弄个模型玩。

2008年的股灾来了,倾巢之下,焉有完卵,半桶水的我炒股炒成了股东。

后来,一位授金融课程的 MBA 的老师说他研究了一套量化交易模型,我和几个同学凑了钱去实践他的模型,最终在一轮行情中没跑过上证指数。这也让我彻底对炒股的技术分析失去信心。

我们还可以看看一些先进大公司的量化交易经历:

美国长期资本管理公司(LTCM),聚集了两位诺贝尔经济学奖得主,他们研究了一套“期权定价公式”,此外还有美联储副主席加盟,这样的豪华阵容,打造了当时世界最先进的量化交易模型,但 1998 年在俄罗斯金融风暴中亏掉了以往所有的盈利和大部分资产,最终被收购。

塔勒布称这种事件为“毁灭”[1],即因亏损而从市场中彻底消失,这在金融界时常发生。

如果用 AI 来炒股会怎样?

全球首只号称使用人工智能选股的基金(AI Powered Equity ETF),被认为是金融界的 alpha go,但从 2017 年 10 月以来的近两年业绩,却大幅跑输标普 500 指数接近 20%。

AIEQ 截至今日的走势,灰色的是标普 500 指数走势

塔勒布先生认为:

我们用到的一些数据模型,无法跟踪“黑天鹅”事件,而黑天鹅事件影响巨大,甚至可以改变整个世界的格局,譬如大萧条、911事件、次贷危机等等。纵观人类的历史,还有两次世界大战,都是由这些少量的黑天鹅事件构成的,这些黑天鹅构造了一个个断层,而人类的发展总是从一个断层跳跃到另一个断层。[2]

本文试图重新审视并思考我们身边这些预测数据模型的适用性。

主要观点包括:
1、由于生物系统的复杂性导致大数据模型存在“盲维”
2、大数据模型容易忽略的动态不对称性
3、AI 无法脑筋急转弯,且存在悖论

01 生物系统的复杂性导致大数据模型存在“盲维”

我们身边的复杂系统有两种:

一种是物理系统,大到宇宙天体运行 ,小到钟表,运作机制虽然复杂精妙,但却可以分析和拆解,变化因素可以穷举,因素之间关系相对静态和稳定,容易量化。

另一种是生物系统,例如孩子的教育、人的信用或者市场经济。难以简单地拆解,变化因素与更大的环境相关,而且动态变化,它们的根本特性难以量化。

我们天生喜欢可预知的、稳定的世界,所以我们总喜欢把生态系统的复杂度当成物理系统来进行模拟和预测,这就是预测模型的重大误区。

遗憾的是,与我们生活息息相关的,大部分属于生物系统,例如教育、创业、婚姻家庭、国家、政治、文化、市场经济...

我们从一个宏大的“创世纪”故事[4],来了解一下生物系统的复杂性:

500万年前,南美大陆开始向北美大陆靠近,中间出现了一个细长的地峡---巴拿马地峡。
巴拿马地峡让本来连在一起的太平洋和大西洋隔离开来。低纬度地区的东北信风将大西洋上空的水汽不断吹向太平洋的上空,形成大量的降雨。
久而久之,太平洋的盐度开始下降,与太平洋相通的北冰洋的盐度也开始下降。海水盐度的下降意味着海水冰点的提高,北冰洋被冰覆盖的面积迅速扩大。
冰帽的扩大使大量的水被固化,降水量下降。这又导致了非洲东部赤道附近大片雨林的面积大大萎缩。很多本来是雨林的地方逐渐蜕变成稀树草原。
当东非雨林分为大片的草原和残留的雨林的时候,生活在雨林里的古猿也逐渐分化为地上的猿和树上的猿。
地上的猿慢慢进化出直立行走的能力。

后面的故事我想大家都知道了。

我们只简单地理解了人类进化的必然性,但我们完全没有考虑大陆板块移动、气流、冰点、降雨、雨林萎缩等等因素,此外,还需要这些因素之间的正反馈、负反馈相互作用才能形成最终结果。我们要承认,对于生物系统,我们存在的不仅仅是盲点,而是对整个维度的缺乏认知,即“盲维”

我们的认知有很多盲维

事实上大家都误解了黑天鹅,黑天鹅是发生在我们事前无法认知的“盲维”中,而那些事前可以看到因素并不叫黑天鹅!

试问我们的预测模型可以模拟这样的复杂度?而那些存在大量盲维的数据科学家,仅仅在用能获取的数据来做模型!
我们会嘲笑“在路灯下找钥匙的醉汉”[5],但是我们身边,那些存在大量“盲维”的模型构造者,不就是路灯下找钥匙的醉汉吗?

02、大数据模型容易忽略的动态不对称性

随着时间的推移,生物系统中的未来并不会与历史相同,往往存在不连续的,跳跃式的黑天鹅事件。。

在农场中的火鸡被养了1000天,如果火鸡建立一个数学模型的话,在第1001天,当模型确信农夫养它的概率达到最高的99.9%时,却因感恩节被农夫杀死[3]。

这个案例中,火鸡建立的模型准确率达到99.9%,但关键的是农夫的思维是它的盲维。而农夫建立的模型中,没有盲维,火鸡的生存概率在感恩节临近时达到了最低。

这里要强调的是事件的不对称性,对一个号称准确率高达99.9%的模型,你通常会感到安心,但是就是那 1/1000 的错误会导致毁灭,这种准确率达 99.9%的模型还值得相信?

我们知道大数据模型依赖“大量”的数据,由于黑天鹅事件发生罕见,往往大量的数据中根本还不包括黑天鹅事件,这就违背了大数据“大”的原则。此外,即使数据中包括了黑天鹅事件,往往还有可能被模型训练者当成“数据异常值”给忽略掉,这样的模型怎么可靠?

未来并不总是依赖过去,当你确信高达 90+ % 准确的模型,有可能未来准确率 = 0%!随着时间的流动,事情性质在瞬间发生变化,这就是动态不对称性,这才是现实!

03 AI 无法脑筋急转弯,且存在悖论

这里,我还要对当前的 AI 能力进行质疑,AI 可以模拟出极其精密的物理系统。但是,物理系统只是我们心中的一个理想模型,在现实世界中,人工智能非常不智能!

做个思想实验,有一个抛硬币机, 经过数万次训练,AI 成功地预测正反面概率无限接近 50%,但是今天,已经试过连续 99 次正面,现在要你判断下次是正面的概率。

AI 认为下次正面概率还是 50% ,有可能小数点后的若干位有点变化。

一个理想主义者也理性地认为是 50%,我是知识分子、我是理性人,我遵循科学规律!

但是如果要下赌注,那么任何一个现实主义者(哪怕是没文化的)都会赌是正面,因为这个硬币极大的可能今天被做了手脚!你看,一点小压力触发了我们的正确认知!

AI 的优势是没有情绪,不会有“损失厌恶”,也不会有“锚定效应”,更不会有拖延症,但真正的现实不是小学做数学题有标准答案,不要总认为有情绪、损失厌恶、拖延症等是不好的东西,这是我们进化多年留下来的基因,那些缺乏这些基因的人早就被淘汰了。

AI 的优点也成为最大的弱点,AI 不会脑筋急转弯,更不会跨学科利用知识。更深原因,现在的 AI 没发做到人的大脑那么复杂,如果有一天 AI 可以真正模拟人的大脑思维,那才是真正的 AI。

那么真能这样,意味着 AI 也可能会有情绪,那么它在决策时也会有恐惧?也会有“损失厌恶”?没有情绪,这可是当初 AI 的重大优势,这就成了一个悖论。

AI 会是一个悖论吗?

以怀疑论面对不确定世界

我们应对不确定的世界,更好的是怀疑而不是确信,那我们应该怎么做?

首先,抓住关键信息,摒弃复杂模型。
我认为决策时的信息,往往不需要复杂模型,信息方面少即是多,几个关键信息就能准确判断。
例如,我们判断一个人的信用,关键是看他在极端情况下的行为,例如突然失去赖以生存的工作、名下的房产突然倒塌时的行为。而平时的那些大量行为数据,都只能算噪音,即使算出了 “99%”,意义也有限。所谓患难见真情,是有道理的。

其次,分辨事情是“脆弱”,还是“反脆弱”。

我们承认“黑天鹅”不可预测,但是可以分辨事情是“脆弱”还是“反脆弱”的。

收入稳定,很少波动,但是一旦出现黑天鹅,就 Game over 的事情是“脆弱”的。收费员工作 20 年,收费站被拆,他下岗后说除了收费什么都不会,这是“脆弱”的。同理,大公司稳定的一个职位、银行/保险公司等也是脆弱的。

相反,虽然失败率高,但试错损失有限的,而一旦遇到“正面黑天鹅”事件,则受益上不封顶,这就是“反脆弱”的事件。我们知道创业失败的概率高达 90+% ,一个人创业 33 次遭遇失败,正当你确认他将一事无成的时候,他第 34 次创业抹去了前 33 次失败 ,他的名字叫宿华。前面的失败只是让你损失有限,但是这些失败却让你越来越强大,这就是“反脆弱”的事件。我上篇文章[5] 中提到的“非能量守恒”的工作,大部分是反脆弱的,例如销售、产品迭代设计、写作等,我们应积极参与到这类事情中。

塔勒布专门为理财设计了一种“杠铃策略”[3],杠铃的大头是把 90 %的资金投入放在保本业务上,杠铃的小头把 10%的资金投入“反脆弱”的高风险业务上,而那些看似收入稳定,却可能遭遇黑天鹅毁灭的“脆弱”业务,则是那条杠,不投入。

第三,构建系统思维,武装自己的跨学科能力
时刻提醒自己把身边的事情当成“生物系统”而不是理想的“物理系统”。同时,通过学习增加自己的认知维度,就能更少地暴露在盲维导致的黑天鹅事件中。

基因生物学、脑科学理论、心理学、经济学、天体物理学、数学等都是很好的跨学科能力,这些能力能让你抵御未来职场中的“黑天鹅”。

总结一下:
模型和结构并非总是错的,它们只错在具体的运用上。困难在于我们不可能事前知道哪里会错。这些模型有些有可能有效,但同时可能具有非常严重的副作用。

我们要审慎看待自己在用的模型和理论,在不确定的世界,怀疑论是我们的武器。我们要认识到:拥有理论有时是一件非常危险的事情,需要提升跨学科的认知去抵抗单维度的脆弱性,不要成为那些拿着锤子满世界找钉子的人。

(0)

相关推荐