论文出处: WWW 2009
论文作者: Fan Guo, Chao Liu, Christos Faloutsos等
概括
能够增量计算的基于Bayes的click model, 核心是Bayes公式中的"证据"函数的计算, 以及模型中用户行为相关的参数的估计.
模型发展 cascade model - DCM&UCM - CCM
Introduction
click model提供了一种方法来聚合用户搜索信息, 用以推断文档的"用户感知相关性", 而"用户感知相关性可以用于提升一些搜索相关应用的性能.
一个好的click model应当具有可拓展性和支持增量计算的性质, 在此前的研究中, cascade model, DCM, UCM等模型被提出, 都存在一些问题, 具体会在后文中展开, 因此这篇文章提出了CCM以改进.CCM的优点包括:基础, 可拓展, 高效等, 是一个基于bayes的概率模型.
Background
概念与符号表示:
query session: 一个检索会话从一次查询提交开始, 重提交或对查询字段的编辑都视为不同的独立检索会话.
document impression: 第一页结果页上展示的文档的集合. click model舍弃了之后的页面, 相关查询和定向广告的内容, 可以表示为D={d1,d2,…,dM},通常M=10.
examination, click: 一次检视称为examination, 一次点击称为click, 它们都是概率事件, 用二项随机变量Ei,Ci表示i个文档是否被检视和点击.
examination hypothesis: 文档只有被检视才可能被点击, 文档被点击的概率等于文档的相关性.
P(Ci=1∣Ei=0)=0P(Ci=1∣Ei=1)=rdi
其中rdi表示文档相关性, i文档是否被检视和点击, 与之前的检视和点击时间独立.所有click model都符合这样的定义, 但是对于P(Ei)存在不同的形式.
cascade model
最基本的click model是cascade model, 该模型遵循cascad hypothesis, 即客户总从检索结果的第一条开始检查, 并严格的逐条向下, 即
P(E1=1)=1,P(Ei+1=1∣Ei=0)=0.
除了上述两个hypothesis, 模型的额外约束包括用户会不断检视直到第一次点击,点击后不在看后面的文档直接遗弃当前的query session. 结合以上约束, 模型可以总结为下式
P(Ei+1=1∣Ei=1,Ci)=1−Ci(1)
模型的缺点:
- 没有考虑当在一个query session中发生多次点击时怎么表示以及怎么估计这种情况下的文档相关性.
Dependent click model(DCM)
引入了一个点击事件后检视下一个文档的条件概率作为位置相关的参数, 将cascade model推广到多次点击的情形, 即
P(Ei+1=1∣Ei=1,Ci=1)=λi(2)
P(Ei+1=1∣Ei=1,Ci=0)=1,(3)
其中λi是行为参数, 全局共享. 模型的整体概率可以表示成
P(C1:M)=i=1∏l((rdiλi)Ci(1−rdi)1−Ci)⋅(1−λl+λlj=l+1∏M(1−rdj))
l=argmax1≤i≤M{Ci=1}表示最后一个点击位置, 如果没有点击, l=0.
模型缺点:
- 模型假设了用户会扫视搜索结果的整个列表, 与现实不贴切.
User browsering model(UBM)
该模型假设检视的概率Ei只与上一次点击的位置li=argmaxl<i{Cl=1}有关, 其中距离可以表示为i−li, P(Ei)的定义如下:
P(Ei=1∣C1:i−1)=γli,i−li(5)
因为0≤li<i≤M, 总共有M (M + 1) / 2的用户行为参数γ.模型概率可以表示为
P(C1:M)=i=1∏M(rdiγli,i−li)Ci(1−rdiγli,i−li)1−Ci(6)
模型缺点:
- UCM模型通过最大似然学习参数, 并且通常需要多次迭代才能收敛,计算量相比DCM大了很多.
- 迭代意味着要对数据做多次遍历, 在增加计算同时意味着不能够增量更新.
Click Chain Model
模型假设:
- 用户同构:对于相同的query,用户需要的信息相似
- 检视事件和点击事件解耦: 点击的概率只与当前位置的检视概率和文档的相关性有关
- 顺序检视:检视顺序严格按照序列, 没有跳过.
按照假设,有以下式成立
P(Ci=1∣Ei=0)=0(7)
P(Ci=1∣Ei=1,Ri)=Ri(8)
P(Ei+1=1∣Ei=0)=0(9)
P(Ei+1=1∣Ei=1,Ci=0)=α1(10)
P(Ei+1=1∣Ei=1,Ci=1,Ri)=α2(1−Ri)+α3Ri(11)
此外, 有P(E1=1)=1, Ri是独立同分布,服从[0,1]的均匀分布, 即p(Ri)=1 for 0≤Ri≤1.
按照流程图可以表示成


相比其他click model区别: 通过一个合适的Bayes推断来预测文档相关性的后验分布. 文档相关性Ri是0-1的随机变量, 模型的训练包括得到Ri的后验分布和估计用户行为相关的参数α.
Algorithm
符号表述:
-
C1:U:对于同一个query的U个query session
-
P(Ri∣C1:U): 待求后验概率
单个query session的概率可以直接按照figure2计算, 但是因为随机变量值全局共享, 多个session时可能形成环, 第一个能想到的办法是通过迭代解决, 但是文章提供的算法给出了另一种近似, 即给定Ri将session中点击事件看做条件独立的随机变量,
p(Ri∣C1:U)≈(constant)×p(Ri)u=1∏UP(Cu∣Ri)(12)
如果能计算出P(Cu∣Ri),则可以按照计算出一个关于Ri的常数的后验概率, P(Cu∣Ri)的计算可以归纳为5种情况,其中l是最后一次点击事件的位置

条件概率的计算
按照CCM的定义, 首先能够有以下几条性质,能够有效简化:
- 对某一j, 若Cj=1, 有∀i≤j,Ei=1
- 对某一j, 若Ej=0, 有∀i≥j,Ei=0,Ci=0
- 若Ei=1,Ci=0, 则P(Ei+1∣Ei,Ci,Ri)=α1Ei+1(1−α1)1−Ei+1, 与Ri无关.
Case1: i<l,Ci=0:
性质1,3得, P(Ei+1=1∣Ei=1,Ci=0,Ri)=α1, 与Ri无关, 则关于Ri的常数都可以忽略.
P(C∣Ri)∝P(Ci=0∣Ei=1,Ri)=1−Ri(13)
Case2:
根据性质1, Ei=1,Ei+1=1, Ri的Markov blanket包括Ci,Ei,Ei+1
Markov blanket 马尔科夫毯,将随机变量的集合U分成A, B和随机变量X三个部分, 如果给定A, 变量X和B集独立, 则称A为Markov blanket. 就是X只与集合A中的随机变量相关.
P(C∣Ri)∝P(Ci=1∣Ei=1,Ri)P(Ei+1=1∣Ei=1,Ci=1,Ri)∝Ri(1−(1−α3/α2)Ri)(14)
Case3:
根据性质1, Ri的Markov blanket不包含i以前的环境变量, 因此大于i的变量可以被加和到一起.

case4和case5需要对当前位置i后的所有随机变量加和, 同时它们和与最后一次点击的位置的距离相关, 因此总共分别有最多(M-1)和M个独立的结果, 5种情况的结果总数为1+1+1+M-1+M=2M+2.所有的条件概率可以表示为RiCi(1−βjRi)的形式,其中βj是依赖用户行为参数α的case相关参数, 也就上是上面5种. 因此总共需要统计2M+2+1(Ri的独立因子)的值, 就可以计算未归一化的后验分布. 算法如下:

按照算法计算出β,P, 文档的后验概率可以写作
p~Rd∝rPd,2+Pd,3m=1∏2M+2(1−βmr)Pd,m(16)
后验概率数值积分
利用积分中点法则离散化r后, 对后验概率可以按照下式积分
∫01rjp~(r)dr≈B1b=1∑BrbPd,2+Pd,3+jm=1∏2M+1(1+βmrb)Pd,m(16)
数值积分过程写成算法如下:

为了避免精度问题, 通常会将连乘变为log进行计算. 通常,对于后验概率点的估计Ep(r)[f(r)], 可以简单用f(rb)代替rbj, 饼子啊结果中除以一个归一化常数c.
参数估计
对于单个query session,p(C∣α)可以通过对Ri和Ei积分得到, 计算过程与(15)式类似,再将不同的query session进行累加,得到对数似然函数
l(α)=N1logα1+N2logα4+N3log(6−3α1−α4)+N5log(1−α1)−(N3+N5)log(2−α1)−N1log2−(N2+N3)log6(17)
其中α4=α2+2α3, Ni是文档落入到第i个case的次数, 对是上式求最大似然得到
α1=2(N1+N2)3N1+N2+N5−(3N1+N2+N5)2−8N1(N1+N2)α4=N2+N33N2(2−α1)
上式说明, α2,α3的选择,可以调整, 可以根据模型应用调整α2/α3.
增量更新
当新的数据进来时, 使用algo1对P中的计数进行更新,如果必要的话,可以继续对后验相关性的估计进行更新.
实验与总结部分
文章在实验部分, 选择了商业搜索引擎上的880万条query session作为数据集, 对CCM,UBM, DCM进行测试并对比, 在采用的一系列准则上, CCM都比其他的模型表现更好.
文章的总体思路就是使用bayes的模型来对检索会话进行建模, 文档有自己的先验的相关性, 然后根据在会话中的位置和被点击情况, 会产生一些证据来强化或削弱该相关性, 这些证据的计算通过一些假设保证了局部相关性, 因此能够加速计算和增量计算.
比较不好理解的部分在最后参数估计的部分, 但是尽管操作复杂, 归结到操作层面还是比较简洁的.