标签:close 追踪 核心 frame 因此 var 广告 出现 ati
论文 A Practical Framework of Conversion Rate Prediction for Online Display Advertising
定期更新,获取更多,欢迎star。
本论文基于Yahoo! BrightRoll (Oath)雅虎的RTB(视频)买方平台(DSP)。 由于CPA成为主流出价方式,所以转化率预估变成了关键的问题。
难点:
eCPA: effective cost per action or acquisition.[每次操作和获取的有效成本]
eCPA=sum(cost)/sum(action)eCPA=sum(cost)/sum(action)
:表示的广告主实际为每个转化库存花费的成本。
eCPC=λ∗Gcpc∗sum(pCTR)/sum(CTR)(0<λ<1)eCPC=λ∗Gcpc?∗sum(pCTR)/sum(CTR)(0<λ<1)
eCPA=λ∗Gcpa∗sum(pCVR)/sum(CVR)(0<λ<1)eCPA=λ∗Gcpa?∗sum(pCVR)/sum(CVR)(0<λ<1)
1. 直接关系到广告主的投资回报率(ROI)。
2. 受在线作弊的影响比较小。
过度预估的问题:可能导致获取大量的低质流量,预算消耗过快的问题。【解决这个问题成为本文的最高优先级的事情】
无经验下限:转化其实是表达了用户强烈的兴趣点。pCTR是有一个经验下限的,可以保证预估的效果达到优化目标。但是CVR由于上边介绍,存在的一些问题,是不能保证类比eCPC的eCPA能够达到优化目标的。
预测与观测的差异: 过度预测是固有的,即使预测是无偏的。
C1,C2,…,CnC1?,C2?,…,Cn?
表示真实的转化率,CˉCˉ
是经验转化率,假设预估的转化率C^C^
是无偏的,C^=1n∑1nCiC^=n1?∑1n?Ci?
,以预估的值C^⋅GcpaC^⋅Gcpa?
出价,且假设对每一个展现出价最高的第三方服从对数-正太分布lnN(μi,σ2)lnN(μi?,σ2)
,其中μi=Ci⋅Gcpaμi?=Ci?⋅Gcpa?
,那么C^C^
就是一个过度预估:C1=C2=?=CnC1?=C2?=?=Cn?
时等号成立。具体证明过程略。 这里有一个关键假设是对于每一个展现都存在其他卖方平台,基于前面介绍的所有卖方平台的归因技术是相同的,因此它们的平均出价和我们的相同或者是在均衡条件下。
使用的方法是集成树的方式,每一个叶子节点代表一个特征子空间。和传统集成树的区别是,这里用到的每棵树不是完成的,是会继续迭代的【生长、删除叶子节点】。
p:B(α,β)=Beta(α,β−α)p:B(α,β)=Beta(α,β−α)
αα
是均值,方差Var(p)=α(β−α)β2(β+1)Var(p)=β2(β+1)α(β−α)?
。求 αα
,ββ
时,采用指数衰减随时间变化的方法,因为它在实践中的预测精度方面优于其他方法。B(α^,β^)B(α^,β^?)
分布满足:α^<α0,β^<β0α^<α0?,β^?<β0?
且Var(p)<v0Var(p)<v0?
,其中α0,β0,v0α0?,β0?,v0?
是阈值。为了构造机器学习树,需要首先定义一个置信区间。通常取GBDT预测的Top10%
数据驱动树和机器学习树都会有一个预测值。p1,p2,…,pnp1?,p2?,…,pn?
是这些树的预测值。有三种方法来求集成的预测值:
p^=max?p1,p2,…,pnp^?=maxp1?,p2?,…,pn?
.p^=1n∑1nCip^?=n1?∑1n?Ci?
p^=∑1nVar(pi)−1pi∑1nVar(pi)−1p^?=∑1n?Var(pi?)−1∑1n?Var(pi?)−1pi??
.其中,Var(pi)=αi(βi−αi)βi2(β+1)Var(pi?)=βi2?(β+1)αi?(βi?−αi?)?
实际采用3。
目标是预估预估的CVR和真实的CVR之间的差距,从而指导CPA出价。
出价: Vplain=f(t)⋅pt⋅GcpaVplain?=f(t)⋅pt?⋅Gcpa?
初始值: Vbaseline=ft0(t)⋅pt′⋅GcpaVbaseline?=ft0??(t)⋅pt′?⋅Gcpa?
ΔV=Vplain−Vbaseline=[1−ft0(t)ft(t)]⋅VplainΔV=Vplain?−Vbaseline?=[1−ft?(t)ft0??(t)?]⋅Vplain?
.其中1−ft0(t)ft(t)1−ft?(t)ft0??(t)?
是调整因子,是需要接下来求的值。
ft0(t)=∫tt0+Tq(x−t0)⋅k(x)dxft0??(t)=∫tt0?+T?q(x−t0?)⋅k(x)dx
其中qq
表示对于时间x,在t0t0?
时间内转化归因到展示的条件概率,k(x)k(x)
服从“小时-天”的一个V字形函数。
算法1描述了估计增量值的步骤。 基本思想是对历史数据进行离散化并估计κ(x)κ(x)
和q(x−t0)q(x−t0?)
的每小时概率值,然后将其用于计算调整因子的最终估计。
算法1: 输入:
`$t_0$`:之前展示的时间。
`t`:当前竞价展示时间。
`T`:归因时间窗口。
`W`:转化时间窗口。
n小时的历史数据。
i,j∈{1,2,3,?,n}i,j∈{1,2,3,?,n}
,Ci,jCi,j?
表示对于j小时的转化归因到i小时展示的数据。h≤Wh≤W
的概率质量。q(x−t0)q(x−t0?)
在h的概率质量。f^t0(t)=∑h=tt0+Tq^(h−t0)⋅k^(h)f^?t0??(t)=∑h=tt0?+T?q^?(h−t0?)⋅k^(h)
且f^t(t)=∑h=tt+Tq^(h−t0)⋅k^(h)f^?t?(t)=∑h=tt+T?q^?(h−t0?)⋅k^(h)
输出
预估调整因子值1−ft0(t)ft(t)1−ft?(t)ft0??(t)?
。
实现了2000+GBDT树,562个分类特征,限制每棵树的内部节点不超过8,树的最大深度为7,单一特征不超过7,去重之后的到214个特征集合。
一些online的A/B实验。
标签:close 追踪 核心 frame 因此 var 广告 出现 ati
原文地址:https://www.cnblogs.com/accipiter/p/9556592.html