Simultaneous Deep Transfer Across Domains and Tasks
2020.08.13
主要思想就是图中所示:第一步,通过使源域和目标域的边缘分布尽可能相似来最大化域混合;第二步,从源域样本学习到类关系应用到目标域样本,因此保留了类间关系。
Q1:源域和目标域的边缘分布是P(xs)、P(xt)?如何使它们边缘分布进可能相似?是通过交叉熵吗?
A1:
上面公式是domain confusion loss function,是为学习到域不变性。
Q2:θD、θrepr、D、qd分别表示什么?使这个损失最小化,可以调整什么?是NN的参数吗?
A2:
Q3:各参数代表什么?这个损失函数在流程图中怎么体现?
A3:
这个两个函数似乎是对抗关系,式(3)是为分清样本是来自源域还是目标域,式(4)是为最大化域混合。
Q4:这些损失函数是如何达到目的的?式(3)减小样本错误分类?式(4)减小交叉熵,减小不确定性?这两个公式在流程图中如何体现?
A4:
Q5:上面和下面的蓝色条形图代表什么意思?是样本属于各类的概率?还是各类的概率分布?
A5:
Q6:软标签是网络调整什么后产生的?
A6: