1. 线性回归
线性回归模型如下:
y(i)=θTx(i)+ϵ(i)
并假设误差ϵ符合正太分布,即:
p(ϵ(i))=σ2π1e−2σ2(ϵ(i)−μ)2
且一般认为误差的均值为0,即μ=0, ,得出:
p(σ(i))=σ2π1e−2σ2(ϵ(i))2
p(ϵ(i))=σ2π1e−2σ2(y(i)−θTx(i))2
p(y(i)∣x(i);θ)=σ2π1e−2σ2(y(i)−θTx(i))2
上式的含义为给定参数θ情况下,y(i)相对x(i)的条件概率。样本中满足独立同分布,则所有样本成立的概率为:
L(θ)=∏i−1np(y(i)∣x(i);θ)=(σ2π1)ne−2σ1∑i=1n(y(i)−θTx(i))2
logL(θ)=log(σ2π1)n−2σ1∑i=1n(y(i)−θTx(i))2
选择θ最打化似然函数logL(θ):
θ=argmaxθlogL(θ)=arcminθ21∑i=1n(y(i)−θTx(i))2
回忆最小二乘估计的目标函数:
Q(θ)=i=1∑2(y(i)−θTx(i))2
选择参数θ最小化函数Q(θ):
θ=argminθQ(θ)=argminθ∑i=1n(y(i)−θx(i))2
可以看出最小二乘估计与最大似然估计同解。
2. 逻辑回归
Logit函数定义如下:
Logit(p)=log1−pp
我们用线性回归模型拟合Logit函数,即:
log1−pp=θTx
得到:
p=1+e−θTx1
3. Youtube 时长预估
Youtube时长预估的计算方式为:
y=eθTx
简单解释一下为什么,首先由Logit回归的定义:
log1−pp=θTx
1−pp=eθTx
可见Youtubed预测值y实际上事是这个概率比值,也就是所谓的Odd值。
此外,YouTube训练过程采用了播放时长加权,即损失函数为:
loss=T∗label∗logp−(1−label)log(1−p)
此操作实际相当于将当前正样本赋值了T次,这使得样本的odd值变为
odd=1−pTp≈1−pE[T]≈E[T](1+p)≈E[T]
其中p值在Youtube的场景下较小,由此可以看出odd表示观看时长的期望值。
4. Selection Bias
所谓的Selection Bias指的是模型的训练样本和预测样本的分布不一致问题。
召回模型和排序模型一般使用曝光样本训练,召回模型需要处理全集和曝光样本的select bias,排序模型需要处理曝光样本与召回集的select bias。
