并行多任务学习论文阅读(三)(运用代理损失进行任务分解)

1 代理损失函数——一种并行化技巧 我们在本系列第一篇文章《并行多任务学习论文阅读(一)多任务学习速览》(链接:https://www.cnblogs.com/lonelyprince7/p/15481054.html)中提到,实现多任务学习的一种典型的方法为增加一个正则项[1][2][3]:

\[\begin{aligned} \underset{\textbf{W}}{\min} & \sum_{t=1}^{T} [\frac{1}{m_t}\sum_{i=1}^{m_t}L(y_i^t, f(\bm{x}_i^t; \bm{w}_t))]+\lambda g(\textbf{W})\\ & = \sum_{t=1}^{T} \mathcal{l}_t(\bm{w}_t)+\lambda g(\textbf{W})\\ & = f(\textbf{W}) + \lambda g(\textbf{W}) \end{aligned} \tag{1} \]
目标函数中的\(f(\mathbf{W})\)很容易并行化,但是一般\(g(\mathbf{W})\)就很难并行化了,那么如何解决这个问题呢?答案是运用一个可以分解的代理损失函数来替换掉原始的目标函数。我们接下来就以论文《Parallel Multi-Task Learning》[4](zhang 2015c等人)为例来介绍该思想。该论文MTLR模型[5](zhang 2015a)的基础上利用FISTA算法设计代理损失函数,该代理函数可以依据学习任务进行分解,从而并行计算。
2 基于正则化的多任务学习(MTLR)算法回顾 给定\(T\)个任务\({\{\mathcal{T}_i\}}_{i=1}^T\),每个任务都有一个训练集\(\mathcal{D}_t = {\{(\bm{x}_{i}^t, y_{i}^t)}_{i=1}^{m_t}\}\)。我们现在考虑以下形式的目标函数:

\[\begin{aligned} \underset{\textbf{W}, b}{\min} & \sum_{t=1}^{T} [\frac{1}{m_t}\sum_{i=1}^{m_t}L(y_i^t, \langle \bm{w}_t, \phi(\bm{x}_{i}^t)\rangle+b) ]+ \frac{\lambda}{2}\text{tr}(\textbf{W}\Omega\mathbf{W}^T)\\ \end{aligned} \tag{2} \]
这里的\(\phi(\cdot)\)是一个和核函数\(k(\cdot, \cdot)\)相关的特征映射,这里\(\phi(\bm{x}_1)^T\phi(\bm{x}_2)=k(\bm{x}_1, \bm{x}_2)\)。\(L(\cdot, \cdot)\)是损失函数(比如对于分类问题的\(\text{hinge loss}\) 和对于回归问题的 \(\epsilon \text{-insentive loss}\)。式\((2)\)的第一项是所有任务的经验损失函数,第二项基于\(\mathbf{W}和\Omega\)来建模任务间的关系。根据论文[5],\(\Omega\)是一个正定(Positive definite, PD)矩阵,它用来描述任务两两之间关系的精度矩阵(协方差矩阵\(\Sigma\)的逆)。如果损失函数是凸的且\(\Omega\)正定,那么目标函数\((2)\)关于\(\mathbf{W}和\bm{b}\)是联合凸(jointly convex)的。为了体现目标函数\((2)\)和单任务核方法的关系,我们这里只考虑\(\Omega\)是对角矩阵的情况。在此情况下,任务两两之间没有关系,问题\((2)\)也退化为了多个单任务模型(每个模型对应一个任务)。因此,问题\((2)\)可以被视为单任务正则化模型的多任务扩展。在问题\((2)\)中,\(\frac{\lambda}{2}\text{tr}(\textbf{W}\Omega\mathbf{W}^T)\)不影响我们的并行算法设计,这是非常好的。而问题\((2)\)总是能够加速问题的学习,当使用特定的优化程序如论文[5]和论文[6]一样,根据过去的研究这些方法由很快的收敛率,不管正则项是什么。
在问题\((2)\)中有许多损失函数可供使用,比如\(\text{hinge loss}\)、\(\epsilon-\text{insensitive loss}\)和\(\text{square loss}\),下面我们主要就采用这三种损失函数,后面我们会分别给出问题\((2)\)关于这三个损失函数的对偶形式。
2. 并行多任务学习算法 2.1 FISTA迭代算法
下面我们就给出当使用不同的损失函数时问题\((2)\)的并行求解算法。因为我们的求解算法是基于FISTA迭代的,我们先来看FISTA迭代算法。
FISTA迭代算法[7]是一个加速梯度下降方法,用于求解一个类似于下面这种形式的复合凸目标函数(compositely convex objective function):

\[\underset{\bm{\theta} \in \mathcal{C}_{\bm{\theta}}}{\text{min}}\quad F(\bm{\theta}) = f(\bm{\theta}) + g(\bm{\theta}) \tag{3} \]
这里\(\bm{\theta}\)是指模型的参数集合,\(f(\bm{\theta})\)是凸的且它的梯度有\(\text{Lipschitz}\)连续性,凸函数\(g(\bm{\theta})\)有着简单的且易分解(并行)的结构,\(\mathcal{C}_{\bm{\theta}}\)是指\(\bm{\theta}\)的定义域。FISTA算法最新构建代理损失函数\(Q_l(\bm{\theta}, \hat{\bm{\theta}})\)如下:

\[Q_{\mathcal{L}}(\bm{\theta}, \hat{\bm{\theta}})=g(\bm{\theta})+f(\hat{\bm{\theta}})+(\bm{\theta}-\hat{\bm{\theta}})^T\nabla_{\bm{\theta}}f(\hat{\bm{\theta}}) + \frac{\mathcal{L}}{2}||\bm{\theta}-\hat{\bm{\theta}}||_2^2 \tag{4} \]
这里\(\nabla_{\bm{\theta}}f(\hat{\bm{\theta}})\)表示\(f(\bm{\theta})\)在\(\bm{\theta}=\hat{\bm{\theta}}\)点的梯度,\(\mathcal{L}\)是\(f(\cdot)\)梯度的\(\text{Lipschitz}\)常量,接着我们优化关于\(\bm{\theta}\)的函数\(Q_{\mathcal{L}}(\bm{\theta}, \hat{\bm{\theta}})\),约束为\(\bm{\theta} \in \mathcal{C}_{\bm{\theta}}\)。函数\(Q_{\mathcal{L}}(\bm{\theta}, \hat{\bm{\theta}})\)关于\(\bm{\theta}\)的优化器由\(q_{\mathcal{L}}(\hat{\bm{\theta}})\)表示。
FISTA算法伪代码如下图所示:
并行多任务学习论文阅读(三)(运用代理损失进行任务分解)
文章图片
可以看到第\(17\)步和\(18\)步在\(\bm{\theta}\)能够被划分为许多部分的情况下可以轻易并行。但目前的问题是如何并行化算法步骤\(11\)或\(13\)。
2.1 将目标函数转换为对偶问题
当使用\(\text{hinge},\epsilon\text{-intensive}\)和\(\text{squre}\)损失函数时,我们需要用\(\text{FISTA}\)算法优化其对偶问题。下面我们分别说明得到这三个损失函数对应目标函数的对偶问题,后面我们会在此基础上进行并行化。
2.1.1 Hinge Loss (1)转为对偶形式 我们将Hinge Loss函数\(L_h(y^{'},y)=\text{max}(1-y^{'}y, 0)\)代入式(2)的优化问题,并将无约束优化转为有约束优化可得到:

\[\begin{aligned} & \underset{\mathbf{W}, \bm{b}, \bm{\eta}}{\text{min}}\quad \frac{\lambda}{2}\text{tr}(\textbf{W} \mathbf{\Omega} \textbf{W}^T) + \sum_{t=1}^T\frac{1}{m_t}\sum_{i=1}^{m_t}\eta_{i}^t \\ & \text{s.t.} \quad y_{i}^t(\langle \bm{w}_t, \phi(\bm{x}_{i}^t)\rangle+b_t) \geqslant 1- \eta_{i}^t, \quad \eta_{i}^t \geqslant 0 \end{aligned} \tag{5} \]
这里\(\bm{\eta}=(\eta_{1}^t, ..., \eta_{m_T}^t)^T\)。引入非负的Lagrange乘子\(\{\alpha_{i}^t\}\)和\(\{\beta_{i}^t \}\),我们可以得到问题\((5)\)的对偶形式如下:

\[\begin{aligned} & \underset{\bm{\alpha}}{\text{min}} \quad \frac{1}{2\lambda}\bm{\alpha}^T\mathbf{P}\bm{\alpha} - \sum_{t=1}^T\sum_{i=1}^{m_t}\alpha_{i}^t \\ & \text{s.t.} \quad \sum_{i=1}^{m_t}\alpha_{i}^t y_{i}^t = 0 \\ & \quad \quad \space \space t=1, 2,...,T, \quad i = 1, 2, ..., m_t, \quad 0 \leqslant \alpha_{i}^t \leqslant \frac{1}{m_t} \end{aligned} \tag{6} \]
这里我们说明一下矩阵\(\mathbf{P}\)的含义,设\(\sigma_{ij}\)是任务关系协方差矩阵\(\Sigma\)的第\((i, j)\)个元素,\(\mathbf{K}\)是一个\(n \times n\)的矩阵,它的第\((I_{a}^b, I_{c}^d)\)个元素是\(\sigma_{ac}k(\bm{x}_{a}^b, \bm{x}_{c}^d)\),这里\(I_{i}^t =i+\sum_{k=1}^{t-1}m_k\)计算在所有任务的训练数据中的\(\bm{x}_{i}^t\)的下标。\(\odot\)指逐元素乘积操作,这里有\(\mathbf{P}=\mathbf{K} \odot (\bm{y}\bm{y}^T)\)。这里我们定义函数\(k_{MT}(\cdot, \cdot)\)为\(k_{MT}(\bm{x}_{i}^t, \bm{x}_{s}^r) = \sigma_{r}^tk(\bm{x}_{i}^t, \bm{x}_{s}^r)\)
用来构造矩阵\(\mathbf{K}\)。很容易证明这是一个核函数。所以我们称\(k_{MT}(\cdot, \cdot)\)是一个多任务核函数,将\(\mathbf{K}\)称为多任务核矩阵。
2.1.2 \(\epsilon\) - Insensitive Loss 接下来我们讨论将\(\epsilon-\) insensitive loss函数
\(L_{\epsilon}(y,y^{'}) = \left\{ \begin{aligned} 0 \quad \text{若} |y - y^{'}| \leqslant \epsilon \\ |y - y^{'}| - \epsilon \quad \text{其他} \end{aligned} \right .\)
代入问题\((2)\)进行优化。我们再引入一些松弛变量,问题\((2)\)可被转化为:

\[\begin{aligned} & \underset{\mathbf{W}, \bm{b}, \bm{\eta}, \bm{\tau}}{\text{min}}\quad \sum_{t=1}^{T} \frac{1}{m_t} \sum_{i=1}^{m_t}(\eta_i^t+\tau_i^t) + \frac{\lambda}{2}\ \text{tr}(\mathbf{W}\mathbf{\Omega}\mathbf{W}^T) \\ & \text{s.t.} \quad n_i^t \geqslant 0, \bm{w}_t^T\phi(\bm{x}_i^t) + b_t - y_i^t \leqslant \epsilon + \eta_i^t \\ & \quad \quad \space \space \tau_i^t \geqslant 0, y_i^t - \bm{w}_t^T\phi(\bm{x}_i^t) - b_t \leqslant \epsilon + \tau_i^t \end{aligned} \tag{7} \]
这里\(\bm{\eta} = (\eta_1^1,..., \eta_{m_T}^T)^T\)和\(\bm{\tau} = (\tau_1^1,..., \tau_{m_T}^T)^T\)。
我们接下来引入Lagrange乘子\(\bm{ \alpha} = (\alpha_1^1,...,\alpha_{m_T}^T)^T\)和\(\bm{ \beta} = (\beta_1^1,...,\beta_{m_T}^T)^T\),进一步得到问题\((7)\)的对偶问题:

\[\begin{aligned} & \underset{\bm{\alpha}, \bm{\beta}}{\text{min}}\quad \frac{1}{2\lambda}(\bm{\alpha}- \bm{\beta})^T\mathbf{K}(\bm{\alpha} - \bm{\beta}) + \epsilon (\bm{\alpha}+\bm{\beta})^T \mathbf{1} + \bm{y}^T(\bm{\alpha} - \bm{\beta}) \\ & \text{s.t.} \quad \sum_{i=1}^{m_t}(\alpha_i^t - \beta_i^t) = 0 \\ & \quad \quad \quad t=1, 2,...,T, \quad i = 1, 2, ..., m_t, \quad 0 \leqslant \alpha_{i}^t ,\beta_{i}^t \leqslant \frac{1}{m_t} \end{aligned} \tag{8} \]
这里\(\mathbf{1}\)表示一个元素全为1的合适大小的向量或者矩阵,\(\mathbf{K}\)表示由等式\((8)\)的多任务核函数\(k_{MT}(\cdot, \cdot)\)构成的矩阵。这里\(\bm{y}=(y_1^1, ...,y_{m_T}^T)^T\)。
2.1.3 Square loss: 我们将square loss代入问题\((2)\),得到以下优化问题:

\[\begin{aligned} & \underset{\mathbf{W}, \bm{b}, {\eta_{ij}}}{\text{min}}\quad \sum_{t=1}^{T} \frac{1}{m_t} \sum_{i=1}^{m_t}(\eta_i^t)^2 + \frac{\lambda}{2}\ \text{tr}(\mathbf{W}\mathbf{\Omega}\mathbf{W}^T) \\ & \text{s.t.} \quad n_i^t = y_i^t - \bm{w}_t^T\phi(\bm{x}_i^t) - b_t \end{aligned} \tag{9} \]
引入Lagrange乘子\(\{\alpha_{ij}\}\),我们就可以得到问题\((9)\)的对偶形式:

\[\begin{aligned} & \underset{\bm{\alpha}}{\text{min}} \quad \frac{1}{2\lambda}\bm{\alpha}^T\mathbf{Q}\bm{\alpha} - \sum_{t=1}^T\sum_{i=1}^{m_t}\alpha_{i}^t y_{i}^t \\ & \text{s.t.} \quad \sum_{i=1}^{m_t}\alpha_{i}^t = 0 \\ & \quad \quad \space t=1, 2,...,T, \quad i = 1, 2, ..., m_t, \quad 0 \leqslant \alpha_{i}^t \leqslant \frac{1}{m_t} \end{aligned} \tag{10} \]
这里\(\bm{\alpha} = (\alpha_1^1,...,\alpha_{m_T}^T)^T\)。这里\(\mathbf{Q} = \mathbf{K} + \frac{\lambda}{2}\mathbf{\Lambda}\),\(\mathbf{\Lambda}\)是一个对角矩阵,相应的数据点属于第\(k\)个任务时其对角元素为\(m_k\)。
注意,后面我们会发现三个损失函数对应的对偶形式都有着相似的形式而且和单任务对偶形式的主要不同点都在于线性不等式约束。也就是说,在单任务对偶形式中,只有一个涉及Lagrange乘子的线性不等式约束;但是在多任务环境下,有\(m\)个线性不等式约束,每个不等式都由一个任务的Lagrange乘子组成。有趣的是,这种差别决定了我们后面设计的并行算法。
2.2 将对偶问题的求解并行化:
接下来我们需要展示应用FISTA算法并行化求解\((6)\),其他损失函数同理。我们定义\(\bm{\theta}=\bm{\alpha}\),\(\bm{\phi} = \hat{\bm{\alpha}}\),\(f(\bm{\alpha}) = \frac{1}{2\lambda}\bm{\alpha}^T\bm{P}\bm{\alpha}\),\(g(\bm{\alpha}) = \sum_{t=1}^T\sum_{i=1}^{m_t}\alpha_{i}^t\),定义域\(\mathcal{C}_{\alpha} = \{\alpha | \sum_{i=1}^{m_t}\alpha_{i}^t y_{i}^t = 0(t=1,2,..,T, i=1,2,...,m_t, 0 \leqslant \alpha_i^t\leqslant \frac{1}{m_t})\}\)。下面我们来看如何并行化算法步骤\(11\)或\(13\)。
\(f(\bm{\alpha})\)关于\(\bm{\alpha}\)的二阶导数\(\nabla^2 f(\bm{\alpha})\)是我们这里的\(\frac{1}{\lambda}\bm{P}\)。我们用\(||\cdot||\)表示矩阵的\(l_2\)范数,易得\(||\mathbf{P}||_2 \mathbf{I}_n-\mathbf{P}\)是一个半正定矩阵。所以\(f(\bm{\alpha})\)的最小\(\text{Lipschitz}\)常量是\(\frac{1}{\lambda}||\textbf{P}||_2\)(\(\mathcal{L} \geqslant {\frac{1}{\lambda}||\textbf{P}||_2}\))。当\(n\)非常大时,计算\(||\textbf{P}||_2\)非常耗时,我们下面会展示如何并行地计算它。
给定\(\mathcal{L}\),我们能够优化关于\(\bm{\alpha}\)的函数\(Q_{\mathcal{L}}(\bm{\alpha}, \hat{\bm{\alpha}})\),这也是步骤11或13要求解的(并行地)。特别地,步骤11或13要求解的优化问题可以被描述为:

\[\begin{aligned} & \underset{\bm{\alpha}}{\text{min}}\quad \frac{\mathcal{L}}{2}||\bm{\alpha} - \hat{\bm{\alpha}}||^2_2 + \frac{1}{\lambda}\bm{\alpha}^T\textbf{P}\hat{\bm{\alpha}} - \sum_{t=1}^T\sum_{i=1}^{m_t}\alpha_{i}^t \\ & \text{s.t.} \quad \sum_{i=1}^{m_t}\alpha_{i}^t y_{i}^t = 0 \\ & \quad \quad \space \space t=1, 2,...,T, \quad i = 1, 2, ..., m_t, \quad 0 \leqslant \alpha_{i}^t \leqslant \frac{1}{m_t} \end{aligned} \tag{11} \]
该问题可以被分解为\(T\)个独立的子问题,第\(t\)个子问题为:

\[\begin{aligned} & \underset{\bm{\alpha}_t}{\text{min}}\quad \sum_{i=1}^{m_t}\left( \frac{\mathcal{L}}{2}(\alpha_i^t)^2 - \alpha_i^t \alpha_j^t \right) \\ & \text{s.t.} \quad \sum_{i=1}^{m_t}\alpha_{i}^t y_{i}^t = c_t \\ & \quad \quad \space \space i = 1, 2, ..., m_t, \quad \rho \leqslant \alpha_{i}^t \leqslant d_t \end{aligned} \tag{12} \]
这里\(\alpha_t = (\alpha_1^t, ..., \alpha_{m_t}^t )^T\),\(a_i^t = \mathcal{L}\hat{\bm{\alpha}}_j^t+1-\frac{1}{\lambda} \hat{p}_i^t\),\(\hat{p}_i^t\)是\(\text{P}\hat{\bm{\alpha}}\)中与\(\bm{x}_i^t\)对应的元素。\(c_t=0,\rho = 0, d_t = \frac{1}{m_t}\)。
【并行多任务学习论文阅读(三)(运用代理损失进行任务分解)】问题(8)是一个二次规划(quadratic programming, QP)问题,我们能够不用任何QP求解器,在\(O(m_t)\)的时间内用拉格朗日乘子法求解。正如问题\((7)\)所示,FISTA算法的每一轮迭代都需要计算\(\mathbf{P}\hat{\bm{\alpha}}\)以决定\(Q_{\mathcal{L}}(\bm{\alpha}, \hat{\bm{\alpha}})\)。如果我们直接解任务\((8)\),\(\alpha\)会完全和之前的估计不同,且计算\(\mathbf{P}\hat{\bm{\alpha}}\)会花费\(O(n^2)\),当\(n\)很大时计算量太大。所以这里我们希望采取SMO算法的思想,只更新部分的\(\alpha\)元素,这样计算\(\mathbf{P}\hat{\bm{\alpha}}\)的时间复杂度减少到\(O(n)\)。(因为我们只需要关心变化的元素)
参考文献

  • [1] Evgeniou T, Pontil M. Regularized multi--task learning[C]//Proceedings of the tenth ACM SIGKDD international conference on Knowledge discovery and data mining. 2004: 109-117.
  • [2] Zhou J, Chen J, Ye J. Malsar: Multi-task learning via structural regularization[J]. Arizona State University, 2011, 21.
  • [3] Zhou J, Chen J, Ye J. Clustered multi-task learning via alternating structure optimization[J]. Advances in neural information processing systems, 2011, 2011: 702.
  • [4] Zhang Y. Parallel multi-task learning[C]//2015 IEEE International Conference on Data Mining. IEEE, 2015: 629-638.
  • [5] Zhang Y, Yeung D Y. A convex formulation for learning task relationships in multi-task learning[J]. arXiv preprint arXiv:1203.3536, 2012.
  • [6] Zhang Y, Yeung D Y. A regularization approach to learning task relationships in multitask learning[J]. ACM Transactions on Knowledge Discovery from Data (TKDD), 2014, 8(3): 1-31.
  • [7] A. Beck and M. Teboulle, “A fast iterative shrinkagethresholding algorithm for linear inverse problems,” SIAM Journal on Imaging Sciences, 2009
  • [8] 杨强等. 迁移学习[M].机械工业出版社, 2020.

    推荐阅读