CSR-DCF视频目标跟踪论文笔记(2)——关于滤波器Learning的推导(Augmented Lagrangian方法)

2020年08月04日 阅读数:478
这篇文章主要向大家介绍CSR-DCF视频目标跟踪论文笔记(2)——关于滤波器Learning的推导(Augmented Lagrangian方法),主要内容包括基础应用、实用技巧、原理机制等方面,希望对大家有所帮助。

1. 论文基本信息

这篇笔记主要针对滤波器求解的推导过程进行分析(拉格朗日乘子法),主要参考内容是原文的补充材料,关于论文其余部分创新点及其总体思路会在后续文章中进行分析。(笔记1的连接:http://blog.csdn.net/discoverer100/article/details/78182306html

2. 滤波器求解目标函数的构建

在多通道状况下,目标函数为python

(1) arg min h d = 1 N d ( f d h d g 2 + λ h d 2 ) = arg min h d = 1 N d ( h ^ d H d i a g ( f ^ d ) g ^ d 2 + λ h ^ d 2 )

其中, h 表示滤波器, d = 1 t o N d 表示 N d 个通道, g 表示指望的响应输出, λ 表示正则项用于防止过拟合(关于正则项为何能够防止过拟合能够参考: http://www.cnblogs.com/alexanderkun/p/6922428.html

根据上述(1)式,为简化推导过程,将多通道状况改成单通道状况模式,则目标函数为
git

(2) arg min h f h g 2 + λ h 2 = arg min h h ^ H d i a g ( f ^ ) g ^ 2 + λ h ^ 2

引入变量 h c 并定义约束条件
(3) h c h m = 0

其中, h m m h ,而 m 表示论文中的空间置信图(spatial reliability map),也能够理解为一个mask,具体概念能够参考前面的一篇文章: http://blog.csdn.net/discoverer100/article/details/78182306,上述(3)式中引入的变量 h c 能够先不理会其物理意义,它的主要做用是让算法可以收敛(论文原文表述:prohibits a closed-form solution),我的猜想:这里的下标命名为c,可能就是取constrained的第一个字母。

对(2)式引入上述约束条件,并进一步调整,获得最终的目标函数
github

(4) arg min h c , h m h ^ c H d i a g ( f ^ ) g ^ 2 + λ 2 h ^ m 2 s . t . h c h m = 0

上述的正则项前面多出了一个系数 1 / 2 ,其主要意图是求导数后系数能够变为 1 ,便于公式书写。

这样,公式(4)就是咱们推导的起始表达式。web

3. 构建Lagrange表达式

根据上述目标函数,以及Augmented Lagrangian方法(参考Distributed optimization and statistical learning via the alternating direction method of multipliers),构建Lagrang表达式,以下
算法

(5) L ( h ^ c , h , I ^ | m ) = h ^ c H d i a g ( f ^ ) g ^ 2 + λ 2 h m 2 + [ I ^ H ( h ^ c h ^ m ) + I ^ H ( h ^ c h ^ m ) ¯ ] + μ h ^ c h ^ m 2

其中,字母 I 表示Lagrange乘数,字母上面的横杠表示 共轭矩阵,字母右上方的 H 表示 共轭转置矩阵,所以有规律: A ¯ T = A H (后面的推导中可能同时存在两种表示,须要留意)。将上述(5)式进行向量化表示,可得
(6) L ( h ^ c , h , I ^ | m ) = h ^ c H d i a g ( f ^ ) g ^ 2 + λ 2 h m 2 + [ I ^ H ( h ^ c D F M h ) + I ^ H ( h ^ c D F M h ) ¯ ] + μ h ^ c D F M h 2

不难看出,上述(5)式到(6)式,主要变化就是将变量 h ^ m 的表达式替换为 D F M h ,其中 F 表示离散傅里叶变换矩阵,它至关于一个常量, D F 的大小( F 是一个 D × D 的方阵), M = d i a g ( m )

将上述(6)式简单表述为四个项的和,为
微信

(7) L ( h ^ c , h , I ^ ) = L 1 + L 2 + L 3 + L 4

其中,
(8) { L 1 = h ^ c H d i a g ( f ^ ) g ^ 2 = ( h ^ c H d i a g ( f ^ ) g ^ ) ( h ^ c H d i a g ( f ^ ) g ^ ) ¯ T L 2 = λ 2 h m 2 L 3 = I ^ H ( h ^ c D F M h ) + I ^ H ( h ^ c D F M h ) ¯ L 4 = μ h ^ c D F M h 2 = μ ( h ^ c D F M h ) ( h ^ c D F M h ) ¯ T

4. 开始优化,首先对h_c求偏导数

对上述公式(4)的优化能够表述为下面的迭代过程
svg

(9) h ^ c o p t = arg min h c L ( h ^ c , h , I ^ ) h o p t = arg min h L ( h ^ c o p t , h , I ^ )

如今看关于变量 h ^ c 的优化,须要令知足 h ^ c ¯ L 0 ,也就是
(10) h ^ c ¯ L 1 + h ^ c ¯ L 2 + h ^ c ¯ L 3 + h ^ c ¯ L 4 0

对各个份量求偏导数,有
(11) h ^ c ¯ L 1 = h ^ c ¯ [ ( h ^ c H d i a g ( f ^ ) g ^ ) ( h ^ c H d i a g ( f ^ ) g ^ ) ¯ T ] = h ^ c ¯ [ h ^ c H d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c h ^ c H d i a g ( f ^ ) g ^ H g ^ d i a g ( f ^ ) H h ^ c + g ^ g ^ H ] = d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c d i a g ( f ^ ) g ^ H 0 + 0 = d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c d i a g ( f ^ ) g ^ H

(12) h ^ c ¯ L 2 = h ^ c ¯ [ λ 2 h m 2 ] = 0

(13) h ^ c ¯ L 3 = h ^ c ¯ [ I ^ H ( h ^ c D F M h ) + I ^ H ( h ^ c D F M h ) ¯ ] = h ^ c ¯ [ I ^ H h ^ c I ^ H D F M h + I ^ T h ^ c ¯ I ^ T D F M h ¯ ] = 0 0 + I ^ T 0 = I ^

(14) h ^ c ¯ L 4 = h ^ c ¯ [ μ ( h ^ c D F M h ) ( h ^ c D F M h ) ¯ T ] = h ^ c ¯ [ μ ( h ^ c h ^ c H h ^ c D h H M F H D F M h h ^ c H + D F M h D h H M F H ) ] = h ^ c ¯ [ μ ( h ^ c h ^ c H h ^ c D h H M F H D F M h h ^ c H + D F M h h H M F H ) ] = μ ( h ^ c 0 D F M h + 0 ) = μ h ^ c μ D F M h

因而,上述公式(10)能够写成
函数

(15) d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c d i a g ( f ^ ) g ^ H + 0 + I ^ + μ ( h ^ c 0 D F M h + 0 ) 0 d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c d i a g ( f ^ ) g ^ H + I ^ + μ ( h ^ c 0 D F M h + 0 ) 0

回顾公式(6),咱们曾将变量 h ^ m 的表达式替换为 D F M h ,如今咱们将它替换回来,得
(16) d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c d i a g ( f ^ ) g ^ H + I ^ + μ ( h ^ c 0 h ^ m + 0 ) 0

针对 h ^ c 合并同类项,得