美团配送A/B评估体系建设与实践

总第396篇

2020年 第19篇

2019年5月6日,美团正式推出新品牌“美团配送”,发布了美团配送新愿景:“每天完成一亿次值得信赖的配送服务,成为不可或缺的生活基础设施。”现在,美团配送已经服务于全国400多万商家和4亿多用户,覆盖2800余座市县,日活跃骑手超过70万人,成为全球领先的分钟级配送网络。

本文从评估体系建设的原因开始入手,重点阐述了美团配送技术团队在A/B评估体系构建过程中的一些思考和具体的实践,包括如何建立完备的指标体系、如何建立科学权威的评估方式等等。希望能够给大家一些启发和帮助。

即时配送的三要素是“效率”、“成本”、“体验”,通过精细化的策略迭代来提升效率,降低成本,提高体验,不断地扩大规模优势,从而实现正向循环。但是,策略的改变,不是由我们随便“拍脑袋”得出,而是一种建立在数据基础上的思维方式,数据反馈会告诉我们做的好不好,哪里有问题,以及衡量可以带来多少确定性的增长。

而A/B实验就是精细化迭代的一个“利器”,通过为同一个迭代目标制定两个或多个版本的方案,在同一时间维度,让组成成分相同(或相似)的A/B群组分别采用这些版本,然后收集各群组的体验数据和业务数据,最后分析、评估出最好的版本,帮助我们作出正确的决策,使迭代朝着更好的方向去演进。基于此,构建一个适用于配送业务的A/B平台就应运而生了。

1. A/B平台简介

如上图所示,A/B实验可以看作一个“无尽”的学习环,我们通过提出假设、定义成功指标、检验假设(A/B实验)、分析学习、发布、建立另一个假设,这就形成一个完整的闭环,通过多轮实验迭代,使策略趋于更优。基于上述对A/B实验划分的5个步骤,我们将A/B实验的完整生命周期分为三个阶段:

  • 实验前,提出该实验假设,定义实验成功的指标,确定分流策略;
  • 实验中,即验证假设的阶段,根据配置阶段的分流策略进行分流和埋点上报;
  • 实验后,进行实验分析与学习,并基于实验报告决定是否发布。

按照功能划分,我们将A/B平台分为三个模块,实验配置管理模块、分流以及埋点上报模块和在线分析模块,分别对应于A/B实验生命周期的实验前、实验中和实验后三个阶段。

在实验配置模块,用户可以基于实验前提出的假设、定义的成功指标快速创建实验,并基于特定的分流策略完成分流配置;分流以及埋点上报模块,提供JAR包接入的形式,异步获取实验配置进行本地分流计算和埋点上报;在线分析模块,依据用户在实验配置管理模块选取的用于说明实验效果的指标、分流埋点上报模块记录的日志,自动地产生各实验的实验报告,供实验观察者使用,然后根据实验效果帮助他们作出正确的决策。具体流程如下图所示:

2. 为什么要强调评估体系建设

2.1 分流业务场景需要

业界的A/B平台建设基本以《Overlapping Experiment Infrastructure: More, Better, Faster Experimentation》这篇论文为蓝本进行展开, 引入分层模型以及在分流算法中加入层编号因子来解决“流量饥饿”和“正交”问题,并且通过引入域的概念,支持域和层之间的相互嵌套,使分层实验模型更加灵活,进而满足多种场景下的A/B诉求。如下图所示,将流量通过Hash取模的方式即可实现流量的均匀划分。

这种是面向C端用户进行流量选择的传统A/B实验,采用上述的分流方式基于这样的假设:参与实验的流量因子是相互独立的、随机的,服从独立同分布。但是,配送业务场景下的A/B实验,涉及到用户、骑手、商家三端,请求不独立,策略之间相互影响并且受线下因素影响较大。

传统A/B实验的分流方式,无法保证分出的两个群组实验组和对照组的流量都是无差别的,无法避免因流量分配不平衡而导致的A/B群组差异过大问题,很容易造成对实验结果的误判。为满足不同业务场景的诉求,我们的A/B平台建设采取了多种分流策略,如下图所示:

针对策略之间的相互影响、请求不独立场景下的A/B实验,我们采取限流准入的分流方式,针对不同的实验,选取不同的分流因子。在实验前,我们通过AA分组,找出无差别的实验组和对照组,作为我们实验分流配置的依据,这种分流方式要求我们要有一套完整刻画流量因子的指标体系,只要刻画流量因子的指标间无统计显著性,我们就认为分出的实验组和对照组无差别。

2.2 业务决策的重要依据

在实验后的效果评估环节,通常允许实验者用自定义的指标来衡量不同策略带来的影响。但这样做会带来如下两个问题:

  • 首先,由实验者来负责实验效果的评估,很难做到客观。同时也无法避免实验者仅仅选择支持自己假设的指标,来证明自己的实验结论;
  • 其次,所有的策略迭代都是为业务服务,如果实验者用自定义的、与业务认知不一致的指标,来说明实验效果、推动业务灰度,这种方式往往难以被采纳。

因此,权威的评估体系对于对齐大家认知,并帮助我们在策略迭代方面作出正确的决策,尤为重要。

3. A/B评估体系构建

A/B评估体系的构建,要解决A/B平台两个核心问题:第一,要有一套用于刻画流量因子(区域、骑手、商家)的权威的、完备的指标体系,帮助实验者完成实验前的AA分组和实验后的效果评估;第二,要建立一套科学的评估方法,帮助实验者作出正确的决策。

3.1 权威完备的指标体系

指标的权威性体现在:刻画分流因子,用于实验前AA分组和证明实验假设的指标,必须经过治理且业务认知一致,这样才能对齐认知,使得实验结果更具说服力;指标的完备性体现在:评估体系中的指标,不仅要有经过第三方独立生产治理且各业务方认知一致的治理指标,而且还要有实验者为了更全面的分析,描述实验过程,自定义的探索指标。

整体架构

治理指标强调的是指标的权威性和生产的规范性,而探索性指标强调的是指标的多样性和生产的灵活性。在评估体系中要实现这两类指标的统一,既要包含用于说明实验效果的治理指标,又要包含帮助实验者更好迭代实验所需的探索指标。

为实现上述的统一,指标层面要有分级运营的策略:治理指标按照业务认知一致性和算法内部认知一致性分别定级为P0、P1,这一类指标在生产前必须要有严格的注册、评审,生产环节需要交给独立的第三方团队(数据团队)生产,保证指标的权威性,产出后打通指标与字段的映射关系,对用户屏蔽底层实现逻辑;对于探索性指标,定级为P2,强调的是生产的灵活性和快速实现,因此,它的生产就不宜带有指标注册和评审等环节。

为保证其快速实现,希望基于物理表和简单的算子配置就可以实现效果分析时即席查询使用。基于如上的问题拆解,我们进行了如下的架构设计:

数据集成

为了支持监控和分析,在数据集成环节,我们集成了实验配置数据、业务数据和染色数据,以便实验者在效果评估环节不仅可以查看流量指标(PV、UV和转化率),也可以深入探索策略变动对业务带来的影响。

对于那些在实验配置环节不能确定流量是否真正参加实验的场景(例如:选择了特定区域进行实验,该区域产生的单只有满足特定条件时才能触发实验),我们不能直接通过限制确定的区域来查看业务指标。因为此时查看的指标并不是真正参与实验的流量所对应的指标。因此在数据集成环节,我们同时将实验前的实验配置数据和实验中的染色数据(针对每个参与实验的流量,每次操作所产生的数据,都会打上实验场景、实验组以及具体的分组标记,我们该数据为染色数据)同步到数仓。

在数据基建环节,将业务数据模型和染色数据模型通过流量实体作为关联条件进行关联,构建实验粒度模型。

数据基建

在数据基建层,我们基于指标分级运营的思路,由数据团队和算法团队分别构建实体粒度(区域、骑手、GeoHash)和实验粒度的实体宽表模型,以满足P0/P1指标和P2指标的诉求;为实现指标的规范化建设和灵活建设的统一,在物理模型和对外提供应用的指标池之间,我们提供了元数据管理工具和模型配置工具,从而实现离线数据快速接入评估体系的指标池。

由数据团队建设的实体宽表模型,对应着治理指标(P0/P1指标),必须在生产后通过元数据管理工具完成指标与物理字段的映射,将指标的加工口径封装在数据层,对用户屏蔽物理实现,确保治理指标的一致性。由算法团队独立建设的实体宽表模型,对应着挖掘指标(P2指标),为确保其接入评估体系指标池的灵活性和方便性,我们在数据基建环节,通过标签的形式对指标口径做部分封装,在模型配置环节完成指标逻辑的最终加工。

元数据管理

元数据管理层,是实现指标权威性的关键。治理指标在本层实现注册、评审,达到业务认知一致性和算法内部认知一致性的目的。同时,本层还完成了治理指标与数据基建层物理模型之间的绑定,为后续的模型配置建立基础。

模型配置

模型配置工具,是打通物理模型与评估指标池的桥梁,它通过输入组件、操作组件和应用组件,将离线数据接入到评估体系中,满足实验前AA分组和实验后AB评估的需求。首先,输入组件可以对应不同的数据源,既可以接入治理的离线指标,也可以接入特定库下的物理表。其次,操作组件提供了分组操作、算子操作、过滤操作和测试操作,通过分组操作,确定模型包含的维度;通过算子操作,将算子作用在指标或标签字段上,在取数环节实现指标的二次计算;通过过滤操作,实现数据的过滤;通过测试操作,保证模型配置质量。最后,应用组件可以将配置的模型注册到不同的应用上,针对A/B场景主要是AA分组和AB评估。具体接入流程如下图所示:

3.2 科学权威的评估方式

评估报告的可靠和权威性主要体现在两个方面:一是评估指标的可靠性和权威性;二是评估方式的科学性。在上一节中,我们重点讨论了如何构建可靠权威的指标体系。在这一节,我们重点讨论如何进行科学的评估。

在讨论科学评估之前,我们再重温一下A/B实验的定义:A/B实验,简单来说,就是为同一个目标制定两个版本或多个版本的方案,在同一时间维度,分别让组成成分相同(相似)的A/B群组分别采用这些版本,收集各群组的体验数据和业务数据,最后分析、评估出最好版本,正式采用。其中A方案为现行的设计(称为控制组), B方案是新的设计(称为实验组)。分析A/B实验的定义,要实现科学权威的评估,最重要的两点在于:

  • 第一,确保在实验前分出无差别的实验组和对照组,避免因流量分配不平衡导致的AB群组差异过大,最终造成对于实验结果的误判;
  • 第二,确保对实验结果作出准确的判断,能够准确的判断新策略相对于旧策略的优势是不是由自然波动引起的,它的这一优势能否在大规模的推广中反映出来。

无论是实验前确保实验组和对照组流量无显著性差异,还是实验后新策略较旧策略的指标变动是否具有统计上的显著性,无一例外,它们都蕴含着统计学的知识。接下来,我们重点论述一下A/B实验所依赖的统计学基础以及如何依据统计学理论做出科学评估。

假设检验

两个假设

A/B实验是一种对比试验,我们圈定一定的流量进行实验,实验结束后,我们基于实验样本进行数据统计,进而验证实验前假设的正确性,我们得出这一有效结论的科学依据便是假设检验。假设检验是利用样本统计量估计总体参数的方法,在假设检验中,先对总体均值提出一个假设,然后用样本信息去检验这个假设是否成立。我们把提出的这个假设叫做原假设,与原假设对立的结论叫做备择假设,如果原假设不成立,就要拒绝原假设,进而接受备择假设。

两类错误

对于原假设提出的命题,我们需要作出判断,要么原假设成立,要么原假设不成立。因为基于样本对总体的推断,会面临着犯两种错误的可能:第一类错误,原假设为真,我们却拒绝了;第二类错误,原假设为伪,我们却接受了。显然,我们希望犯这两类错误的概率越小越好,但对于一定的样本量n,不能同时做到犯这两类错误的概率很小。

在假设检验中,就有一个对两类错误进行控制的问题。一般来说,哪一类错误所带来的后果严重、危害越大,在假设检验中就应该把哪一类错误作为首要的控制目标。在假设检验中,我们都执行这样一个原则,首先控制犯第一类错误的概率。这也是为什么我们在实际应用中会把要推翻的假设作为原假设,这样得出的结论更具说服力(我们有足够充分的证据证明原来确定的结论是错误的),所以通常会看到,我们把要证明的结论作为备择假设。

T检验

常见的假设检验方法有Z检验、T检验和卡方检验等,不同的方法有不同的适用条件和检验目标。Z检验和T检验都是用来推断两个总体均值差异的显著性水平,具体选择哪种检验由样本量的大小、总体的方差是否已知决定。在样本量较小且总体的方差未知的情况下,这时只能使用样本方差代替总体方差,样本统计量服从T分布,应该采用T统计量进行检验。T统计量具体构造公式如下图所示,其中f是T统计量的自由度,S1、S2是样本标准差。

T检验的流程是,在给定的弃真错误概率下(一般取0.05),依据样本统计量T是否落在拒绝域来判断接受还是拒绝原假设。实际上在确定弃真错误概率以后,拒绝域的位置也就相应地确定了。

使用T统计量进行判断的好处是,进行决策的界限清晰,但缺陷是决策面临的风险是笼统的。例如T=3落入拒绝域,我们拒绝原假设,犯弃真错误的概率为0.05;T=2也落入拒绝域,我们拒绝原假设,犯弃真错误的概率也是0.05。事实上,依据不同的统计量进行决策,面临的风险也是有差别的。为了精确地反映决策的风险度,我们仍然需要P值来帮助业务来做决策。

利用P值决策

P值是当原假设为真时,所得到的样本观察结果或更极端的结果出现的概率。如果P值很小,说明这种情况发生的概率很小,但是在这次试验中却出现了,根据小概率原理,我们有理由拒绝原假设,P值越小,我们拒绝原假设的理由越充分。P值可以理解为犯弃真错误的概率,在确定的显著性水平下(一般取0.05),P值小于显著性水平,则拒绝原假设。

基于假设检验的科学评估

围绕着科学评估要解决的两个问题,实验前,针对圈定的流量使用假设检验加上动态规划算法,确保分出无差别的实验组和对照组;实验后,基于实验前选定的用于验证假设结论的指标,构造T统计量并计算其对应的P值,依据P值帮我们做决策。

AA分组

首先看如何解决第一个问题:避免因流量分配不平衡,A/B组本身差异过大造成对实验结果的误判。为解决该问题,我们引入了AA分组:基于实验者圈定的流量,通过AA分组将该流量分为无显著性差异的实验组和对照组。我们这样定义无显著性差异这一约束:首先,实验者选取的用于刻画实验流量的指标,在实验组和对照组之间无统计上的显著性(即上节所描述的基于均值的假设检验);其次,在所分出的实验组和对照组之间,这些指标的差值最小,即一个寻找最优解的过程。从实验者的实验流程看,在实验前,圈定进入该实验的流量,然后确定用于刻画实验流量的指标,最后调用AA分组,为其将流量分成合理的实验组和对照组。

A/B效果评估

A/B效果评估是实验者在实验后,依据评估报告进行决策的重要依据。因此,我们在实验后的效果评估环节,效果评估要达成三个目标即权威、灵活性和方便。

首先,权威性体现在用于作出实验结论所依赖的指标都是经过治理、各方达成一致的指标,并且确保数据一致性,最终通过假设检验给出科学的实验结论,帮助实验者作出正确的判断。其次,灵活性主要体现在采用列转行的形式,按需自动生成报表告别“烟囱式”的报表开发方式。第三,方便主要体现在不仅可以查看用于说明实验效果的指标,还可以选择查看接入到评估体系里的任意指标;不仅可以查看其实验前后对比以及趋势变化,还可以做到从实验粒度到流量实体粒度的下钻。效果如下图所示:

技术实现

不管是实验前的AA分组,还是实验后的效果评估,我们要解决的一个核心问题就是如何灵活地“取数”,为我们的AA分组和AB效果分析提供一个灵活稳定的取数服务。因此,我们整个架构的核心就是构建稳定、灵活的取数服务,具体架构如下图所示。离线建模和指标模型管理完成数据和元数据建设,建立权威完备的指标体系;中间的取数服务作为上层各应用服务和指标体系的“桥梁”,为上层各应用服务提供其所依赖的指标。

4. 总结与展望

目前,A/B实验已成为许多互联网公司评估其新产品策略和方法的“金标准”,在美团配送业务场景下,它被广泛应用于调度策略、定价策略、运力优化、ETA时间预估等业务场景,为我们的策略迭代制定数据驱动型决策。特别是针对配送场景下这种策略之间相互影响,请求不独立场景下的A/B实验,结合配送技术团队的具体实践,跟大家分享了我们目前的解决思路。

最后再补充一点,在A/B实验领域,实验的流量规模应该有足够的统计能力,才能确保指标的变化有统计意义的。为了更好地达到这个目标,未来我们将通过辅助工具建设,在实验前,依据实验者所关注的指标以及敏感度给出流量规模的建议,方便实验者在实验前快速地圈定其实验所需的流量。

5. 作者简介

(0)

相关推荐

  • 稳定性保障6步走:高可用系统大促作战指南!

    一  前言 年年有大促,大家对于大促稳定性保障这个词都不陌生,业务场景尽管各不相同,"套路"往往殊路同归,全链路压测.容量评估.限流.紧急预案等,来来去去总少不了那么几板斧. 跳出 ...

  • 【行业译文】僵尸网络攻击预测:实验与结论

    美国国家标准与技术研究所(NIST)<基于流的僵尸网络攻击预测的实证研究>一文提出了一种经验研究僵尸网络攻击预测方法,通过测量C2流量和自动标记使用大规模.真实和长期数据集.上一期刊载了第 ...

  • 推荐系统衡量:ABtest 框架

    作者:姚凯飞 句逗科技联合创始人 出品社区:DataFunTalk 无法衡量就无法优化,对于互联网产品而言,不仅是推荐系统,整个 app 系统的更新迭代必然需要建立一套度量衡,来把控整个流程优化的方向 ...

  • 炼丹知识点:模型评估里的陷阱

     炼丹笔记干货  作者:炼丹笔记 在实践中,做推荐系统的很多朋友思考的问题是如何对数据进行挖掘,大多数论文致力于开发机器学习模型来更好地拟合用户行为数据.然而,用户行为数据是观察性的,而不是实验性的. ...

  • Nature通讯:无标度网络不存在吗?本文用先进的统计方法告诉你

    Scale-free networks are rare 强无标度网络在现实网络中的罕见性 论文作者: Anna D. Broido, Aaron Clauset(科罗拉多大学波德分校) 论文链接: ...

  • 传统产品如何做增长?

    2020年第二本书 2020年的第二周,出差解决现场问题,在高铁上看完<硅谷增长黑客实战笔记>,书中讲了很多中美公司的增长实战技巧,但内容主要是针对互联网从业人员,作为一名传统的硬件产品经 ...

  • 美军红队(假想敌)评估体系建设现状及启示

    引 言 战争是典型的复杂巨系统,充满了不确定性.为了更好地理解战争,帮助指挥员和参谋人员运用批判性和创造性思维思考作战问题,美军从模仿对手的思维出发,借助各种技术.方法.概念与实践构建了红队评估体系, ...

  • 智能网联汽车OTA体系建设最佳实践

    描述 2018年6月21-22日,由布谷鸟科技.佐智汽车主办,艾拉比智能.ADI亚德诺半导体.索喜科技赞助支持的"2018第二届智能座舱与智能驾驶峰会"在深圳福田区绿景锦江酒店举办 ...

  • 数据标准体系建设的实践之路

    2018年银保监会颁布了<银行业金融机构数据治理指引>,为商业银行进行数据治理工作提供了方向,其中,数据标准体系的建立是关键,更是基础.然而,数据标准体系的建立不同于普通的软件系统开发,它 ...

  • 【专家声音】于建明:做好失能等级评估 助力养老服务体系建设

    为推动长期护理保险制度试点,协同促进养老服务体系建设,近日国家医保局办公室和民政部办公厅联合印发了<关于印发〈长期护理失能等级评估标准(试行)〉的通知>.做好相关落实工作,要厘清长期护理保 ...

  • 美团配送实时特征平台建设实践

    编辑整理:Frank 出品平台:DataFunTalk 导读:2019年5月,美团正式推出新品牌「美团配送」,升级配送开放平台.那你知道支撑美团配送大脑的实时特征平台是如何建设的吗?如何实现每分钟生产 ...

  • 我市养老服务体系建设发展情况汇报

    近年来,我市养老服务体系建设工作在市委市政府的高度重视下,认真贯彻落实科学发展观,积极顺应养老服务的社会需求,采取有力措施,加大工作力度,初步构建了具有台州特色的以居家为基础,以社区为依托,以机构为补 ...

  • 2021养老机构服务标准体系建设资料丨个人生活照料服务规范

    <养老服务标准体系建设指南> 对应全套现成文件资料 2021年3月29日,新版<养老机构服务标准体系建设指南>(MZ/T 170-2021)发布,我们团队第一时间进行对比分析, ...

  • 《养老机构服务标准体系建设指南》标准解读(二)

    第六部分:标准体系结构.[整理摘编:时英平] 首先依据第五部分针对层次性的原则,明确了标准体系构架的具体层级和分类要求.正如图一所示: 处于最高层次的通用基础标准体系为保障和提供标准体系的基础,通用从 ...

  • 《养老机构服务标准体系建设指南》标准解读(一)

    今年3月29日,民政部集中下发<养老机构生活照料服务规范>.<养老机构社会工作服务规范>.<养老机构老年人健康档案管理规范>及<养老机构服务标准体系建设指南& ...