Simultaneous Deep Transfer Across Domains and Tasks

2020.08.13


Simultaneous Deep Transfer Across Domains and Tasks

主要思想就是图中所示:第一步,通过使源域和目标域的边缘分布尽可能相似来最大化域混合;第二步,从源域样本学习到类关系应用到目标域样本,因此保留了类间关系。

Q1:源域和目标域的边缘分布是P(xs)、P(xt)?如何使它们边缘分布进可能相似?是通过交叉熵吗?

A1:

Simultaneous Deep Transfer Across Domains and Tasks

Simultaneous Deep Transfer Across Domains and Tasks

上面公式是domain confusion loss function,是为学习到域不变性。

Q2:θD、θrepr、D、qd分别表示什么?使这个损失最小化,可以调整什么?是NN的参数吗?

A2:


Simultaneous Deep Transfer Across Domains and Tasks

Simultaneous Deep Transfer Across Domains and Tasks

Q3:各参数代表什么?这个损失函数在流程图中怎么体现?

A3:

Simultaneous Deep Transfer Across Domains and Tasks

这个两个函数似乎是对抗关系,式(3)是为分清样本是来自源域还是目标域,式(4)是为最大化域混合。

Q4:这些损失函数是如何达到目的的?式(3)减小样本错误分类?式(4)减小交叉熵,减小不确定性?这两个公式在流程图中如何体现?

A4:


Simultaneous Deep Transfer Across Domains and Tasks

Simultaneous Deep Transfer Across Domains and Tasks

Q5:上面和下面的蓝色条形图代表什么意思?是样本属于各类的概率?还是各类的概率分布?

A5:

Q6:软标签是网络调整什么后产生的?

A6: