\[P(X_{source}) \neq P(X_{target}), P(Y_{source} | X_{source}) = P(Y_{target} | X_{target})
实例权重调整自适应
当训练集和测试集来自不同分布时, 这通常被称为
采样选择偏差(sample selection bias)
或者
协方差偏移(covariant shift)
.
实例权重调整方法旨在
通过非参数方式对跨域特征分布匹配直接推断出重采样的权重
.
基于直觉的权重调整
直接对原始数据进行权重调整.
首次提出于NLP领域
, 主要的方法有著名的
TrAdaBoost
.
基于核映射的权重调整
将原始数据映射到高维空间(如,再生核希尔伯特空间RKHS)中进行权重调整.
主要思想是
通过重新采样源数据的权重来匹配再生核希尔伯特空间中源数据和目标数据之间的均值
.
主要有两种非参数统计量来衡量分布差异:
核均值匹配(kernel mean matching, KMM)
\[\begin{array}{l}
{\min \limits_{\beta}\left\|E_{x^{\prime} \sim P_{r}^{\prime}}\left[\Phi\left(x^{\prime}\right)\right]-E_{x \sim P_{r}}[\beta(x) \Phi(x)]\right\|} \\
{\text {s.t.} \quad \beta(x) \geq 0, E_{x \sim P_{r}}[\beta(x)]=1}
\end{array}
\]
Huang等人
首次提出通过调整源样本的
\(\beta\)
权重系数, 使得带权源样本和目标样本的KMM最小.
最大均值差异(maximum mean discrepancy, MMD)
\[d_{\mathcal{H}}^{2}\left(\mathcal{D}_{s}, \mathcal{D}_{t}\right)=\left\|\frac{1}{M} \sum_{i=1}^{M} \phi\left(x_{i}^{s}\right)-\frac{1}{N} \sum_{j=1}^{N} \phi\left(x_{j}^{t}\right)\right\|_{\mathcal{H}}^{2}
\]
weighted MMD
方法考虑了类别权重偏差.
主要方法有基于k-means聚类的
KMapWeighted
, 基于MMD和
\(\ell_{2,1}\)
-norm的
TJM
等.
主要思想是假设数据集被表征为两个不同的视角, 使两个分类器独立地从每个视角中进行学习.
主要方法有
CODA
, 以及基于GAN的
RANN
等.
特征自适应
特征自适应方法旨在
寻找多源数据(multiple sources)的共同特征表示
.
基于特征子空间
该方法假设
数据可以被低维线性子空间进行表示, 即低维的格拉斯曼流形(Grassmann manifold)被嵌入到高维数据中
.
通常用PCA方法来构造该流形, 使得源域和目标域可以看成流形上的两个点, 并得到两者的测地线距离(geodesic flow).
基于流形的方法有
SGF
和
GFK
基于子空间对齐的方法有
SA
,
SDA
和
GTH
基于特征变换
特征变换方法旨在
学习变换或投影矩阵,使得源域和目标域中的数据在某种分布度量准则下更接近
.
该方法通过减少不同域之间的边缘分布和条件分布差异, 求解出最优的投影矩阵.
主要方法有:
基于边缘分布MMD的
TCA
, 条件分布MMD的
JDA
基于布拉格曼散度(Bregman divergence)的
TSL
基于希尔伯特-施密特独立性(Hilbert-Schmidt Independence Criterion)
该方法通过在带标签的源域中学习一个好的距离度量, 使得其能够应用于相关但不同的目标域中.
主要方法有:
基于一阶统计量的
RTML
基于二阶统计量的
CORAL
该方法假设数据的特征被分为三种类型:公共特征/源域特征/目标域特征.
主要方法有:
基于零填充(Zero Padding)的
EasyAdapt(EA)
基于生成式模型(Generative Model)
基于特征重构
主要方法有:
低秩重构(Low-rank Reconstruction)
稀疏重构(Sparse Reconstruction)
基于特征编码
主要方法有:
共享域字典(Domain-shared dictionary)
指定域字典(Domain-specific dictionary)
分类器自适应
分类器自适应旨在
利用源域中带标签数据和目标域中少量带标签数据学习一个通用的分类器
.
基于核分类器
主要方法有:
自适应支持向量机(adaptive support vector machine, ASVM)
基于多核学习(multiple kernel learning, MKL)的域迁移分类器
基于流形正则项
主要方法有
ARTL
,
DMM
,
MEDA
等.
基于贝叶斯分类器
主要方法有核贝叶斯迁移学习
KBTL
等.
深度网络自适应
2014年, Yosinski等人
讨论了深度神经网络中不同层特征的可迁移特性.
基于边缘分布对齐
主要方法有:
深度域混淆
DDC
深度自适应网络
DAN
联合自适应网络
JAN
, 同时提出了
Joint MMD
准则
基于条件分布对齐
主要方法有深度迁移网络
DTN
基于自动编码器
主要方法有边缘堆叠式降噪自动编码器
mSDA
对抗式自适应
通过对抗目标(如,域判别器)来减少域间差异.
基于梯度转换
Ganin等人
首次提出可以通过添加一个简单的
梯度转换层(gradient reversal layer, GRL)
来实现领域自适应.
基于Minimax优化
Ajakan等人
首次结合分类损失和对抗目标, 提出了
DANN
方法.
其它方法还有:
对抗判别领域自适应
ADDA
条件领域对抗网络
CDAN
最大分类器差异
MCD
基于生成对抗网络
主要方法有:
CyCADA
Duplex GAN
基准数据集
Office-31 (3DA)
Office+Caltech-10 (4DA)
MNIST+USPS
Multi-PIE
COIL-20
MSRC+VOC2007
IVLSC
Cross-dataset Testbed
Office Home
NEW
ImageCLEF
P-A-C-S
NEW