欢迎您访问365答案网,请分享给你的朋友!
生活常识 学习资料

论文笔记WeaklySupervisedDeepDetectionNetworks

时间:2023-05-29
Weakly Supervised Deep Detection Networks

Hakan Bilen, Andrea Vedaldi CVPR, 2016 (PDF) (Citations 581)

Abstract

优点

提出了一种弱监督深度检测架构,该架构使用图像级图片,同时执行区域选择和分类。

在 PASCAL VOC 数据上隐式学习优于其他弱监督检测系统的目标检测器。

该模型是一个端到端架构,在图像级分类任务方面的表现优于标准数据增强和微调技术。

缺点

该架构无法检测具有多个同类别物体的图片。华中科技大学的 Peng Tang 等人在 CVPR(2017) 提出 OICR 改善了 WSDDN 的性能,但是同样没有解决这个问题。东京大学的 Kosugi 等人在 ICCV(2019) 提出了 CAP 和 SRN 两种标签,利用空间限制解决了在一张图片上无法检测具有多个同类别物体的问题。

1、Introduction

由于预训练的 CNN 可以很好地泛化到大量任务,它们应该包含有意义的数据表示,WSDDN正是基于这个假设提出的。其网络架构如下图所示:

图1、WSDDN 网络架构

首先在ImageNet数据集上预训练CNN,输入图片经过预训练的CNN获得Feature Map和Region Proposal获得建议区域,所获得的Feature Map和Region Proposal经过SPP池化获得区域特征向量。然后对获得的区域特征向量进行分流(分类流和检测流),最后在通过聚合操作获取区域得分,对所有区域的识别和检测分数进行分类,来预测整个图像的类别,然后在学习过程中注入图像级监督。此处参见了2017CVPR提出的OICR网络架构和2019ICCV提出的CAP和SRN标注。

图2、OICR 网络架构
图3、Kosugi 等人提出的 CAP 和 SRN 标注

作者将此方法与多实例学习(MIL)进行比较。 MIL 在选择图像中的哪些区域看起来像感兴趣的对象和使用所选区域估计对象的外观模型之间交替进行。因此,MIL 使用外观模型本身来执行区域选择。我们的技术在根本上与 MIL 不同,因为区域是由网络中的专用并行检测分支选择的,该分支独立于识别分支。通过这种方式,我们的方法有助于避免 MIL 的缺陷之一,即该方法陷入局部最优的趋势。(对于该处,我的个人理解为作者想表达的是WSDDN与交替学习方法的对比,而非MIL的对比。图2将可以使用WSDDN的多实例检测网络MIDN视为MIL,根据OICR论文的观点,该方法应认识属于MIL范畴?当然,目前我对于MIL还没有一个完善的理解,在有一个正确的认知之后会回来进行修正的。)

2、Related Work

大多数现有的 WSD 方法将此任务表述为 MIL。在这个MIL中,图像被解释为多个区域组成的bag。如果图像被标记为正,则假设其中一个区域紧密包含感兴趣的对象。如果图像被标记为负,则没有区域包含该对象。学习在估计对象外观模型和使用外观模型选择正包中的哪些区域对应于对象之间交替进行。MIL 策略导致非凸优化问题;在实践中,求解器往往会陷入局部最优解,因此解的质量很大程度上取决于初始化。Several papers have focused on developing various initialization strategies and on regularizing the optimization problem、WSD的另一个研究方向是基于识别图像部件之间的相似性的想法。

3、Method
图4、The figure illustrates the architecture of WSDDN、

总体思路

Pre-trained CNNconstruct the WSDDN as an architectural modification of this CNNtrain/fine-tune the WSDDN on a target dataset, once more using only image-level annotations 3.1、Pre-trained network 3.2、Weakly supervised deep detection network

首先,将紧跟在最后一个卷积块的ReLU层(relu5)之后的最后一个池化层(pool5)替换为实现SPP池化层。以图像 x x x和区域(边界框) R R R作为输入,并产生一个特征向量 ϕ ( x ; R ) phi(x;R) ϕ(x;R)作为输出:

ϕ ( x ; R ) = ϕ S P P ( ⋅ ; R ) ∘ ϕ r e l u 5 ( x ) phi(mathbf{x} ; R)=phi_{mathrm{SPP}}(cdot ; R) circ phi_{mathrm{relu} 5}(mathbf{x}) ϕ(x;R)=ϕSPP​(⋅;R)∘ϕrelu5​(x)

注意到, ϕ r e l u 5 phi_{mathrm{relu} 5} ϕrelu5​只需要对整个图像计算一次, ϕ ( x ; R ) phi(mathbf{x} ; R) ϕ(x;R)对于任何给定区域 R R R计算都很快。

在实践中,修改SPP层,使其不接受单个区域,而是接受完整的候选区域列表 R R R; ϕ ( x ; R ) = ϕ ( x ; R 1 ) , … , ϕ ( x ; R n ) phi(x;R)=phi(x;R_1),dots,phi(x;R_n) ϕ(x;R)=ϕ(x;R1​),…,ϕ(x;Rn​)变成四维,因为原单独 ϕ ( x ; R ) phi(x;R) ϕ(x;R)是 3 D   T e n s o r 3D,Tensor 3DTensor)。

而后, ϕ ( x ; R ) phi(x;R) ϕ(x;R)经过 ϕ f c 6 phi_{mathrm{fc} 6} ϕfc6​和 ϕ f c 7 phi_{mathrm{fc} 7} ϕfc7​得到区域Proposal feature vector,进而分为分类流和检测流。

Proposal feature vector 经过FC层分别得到 x c , x d ∈ R C × ∣ R ∣ mathbf{x}^{c},mathbf{x}^{d} in mathbb{R}^{C times|R|} xc,xd∈RC×∣R∣分类流, x c mathbf{x}^{c} xc经过Sofrmax层得到 [ σ c l a s s ( x c ) ] i j = e x i j c ∑ k = 1 C e x k j c left[sigma_{class}left(mathbf{x}^{c}right)right]_{i j}=frac{e^{x_{i j}^{c}}}{sum_{k=1}^{C} e^{x_{k j}^{c}}} [σclass​(xc)]ij​=∑k=1C​exkjc​exijc​​, 表示建议区域 j j j属于类别 i i i的概率。检测流, x d mathbf{x}^{d} xd经过Sofrmax层得到 [ σ d e t ( x d ) ] i j = e x i j c ∑ k = 1 ∣ R ∣ e x i k c left[sigma_{det}left(mathbf{x}^{d}right)right]_{i j}=frac{e^{x_{i j}^{c}}}{sum_{k=1}^{|R|} e^{x_{ik}^{c}}} [σdet​(xd)]ij​=∑k=1∣R∣​exikc​exijc​​, 表示图片被分类为 i i i类时建议区域 j j j作的贡献。Combined region scores and detection,初始建议得分矩阵 x R = σ ( x c ) ⊙ σ ( x d ) mathbf{x}^{R}=sigmaleft(mathbf{x}^{c}right) odot sigmaleft(mathbf{x}^{d}right) xR=σ(xc)⊙σ(xd),其中每个元素 x i j R x^R_{ij} xijR​ 表示建议区域 r j r_j rj​ 对类别 i i i的得分,然后进行区域得分排序,执行非极大值抑制(NMS),只留下可能性最大的区域。Image-level classification scores,对所有区域建议求和得到图像分类得分 y c = ∑ r = 1 ∣ R ∣ x c r R y_{c}=sum_{r=1}^{|R|} x_{c r}^{R} yc​=∑r=1∣R∣​xcrR​,表示图像对类别 c c c的得分。 3.3、Training WSDDN

损失函数:
E ( w ) = λ 2 ∥ w ∥ 2 + ∑ i = 1 n ∑ k = 1 C log ⁡ ( y k i ( ϕ k y ( x i ∣ w ) − 1 2 ) + 1 2 ) E(mathbf{w})=frac{lambda}{2}|mathbf{w}|^{2}+sum_{i=1}^{n} sum_{k=1}^{C} log left(y_{k i}left(phi_{k}^{mathbf{y}}left(mathbf{x}_{i} mid mathbf{w}right)-frac{1}{2}right)+frac{1}{2}right) E(w)=2λ​∥w∥2+i=1∑n​k=1∑C​log(yki​(ϕky​(xi​∣w)−21​)+21​)

The data is a collection of images x i , i = 1 , … , n x_i, i = 1, dots , n xi​,i=1,…,n with image level labels y i ∈ − 1 , 1 C y_i∈ {−1, 1}^C yi​∈−1,1C、As ϕ k y ( x i ∣ w ) phi_{k}^{mathbf{y}}left(mathbf{x}_{i} mid mathbf{w}right) ϕky​(xi​∣w) is in range of ( 0 , 1 ) (0, 1) (0,1), it can be considered as a probability of class k k k being present in image x i x_i xi​, i.e、 p ( y k i = 1 ) p(y_{ki} = 1) p(yki​=1)、When the ground-truth label is positive, the binary log loss becomes l o g ( p ( y k i = 1 ) ) log(p(y_{ki} = 1)) log(p(yki​=1)), l o g ( 1 − p ( y k i = 1 ) ) log(1− p(y_{ki} = 1)) log(1−p(yki​=1)) otherwise.

3.4、Spatial Regulariser

As WSDDN is optimised for image-level class labels, it does not guarantee any spatial smoothness such that if a region obtains a high score for an object class, the neighbouring regions with high overlap will also have high scores、In the supervised detection case, Fast R-CNN takes the region proposals that have IoU with a ground truth box of at least 50% as positive samples and learns to regress them into their corresponding ground truth bounding box、As our method does not have access to ground truth boxes, we follow a soft regularisation strategy that penalises the feature map discrepancies between the highest scoring region and the regions with at least 60% IoU during training: (此处空间正则化项参照博文进行了修改)

1 n C ∑ k = 1 C 1 2 ϕ k y ( x i ∣ w ) ∑ i = 1 n k + ( ϕ k p f c 7 − ϕ k i f c 7 ) T ( ϕ k p f c 7 − ϕ k i f c 7 ) frac{1}{n C} sum_{k=1}^{C} frac{1}{2} phi_{k}^{mathbf{y}}left(mathbf{x}_{i} mid mathbf{w}right)sum_{i=1}^{n_{k}^{+}} left(phi_{k p}^{mathrm{fc} 7}-phi_{k i}^{mathrm{fc} 7}right)^{mathrm{T}}left(phi_{k p}^{mathrm{fc} 7}-phi_{k i}^{mathrm{fc} 7}right) nC1​k=1∑C​21​ϕky​(xi​∣w)i=1∑nk+​​(ϕkpfc7​−ϕkifc7​)T(ϕkpfc7​−ϕkifc7​)

where n k + n^+_k nk+​ is the number of positive images for the class k k k and k p = arg max j ϕ k j y kp = text{arg max}_jphi^y_{kj} kp=arg maxj​ϕkjy​ is the highest scoring region in image i i i for the class k k k、We add this regularisation term to the cost function in e q . ( 3 ) eq、(3) eq.(3).

综上所述,即最终损失函数为:
E ( w ) = λ 2 ∥ w ∥ 2 + ∑ i = 1 n ∑ k = 1 C log ⁡ ( y k i ( ϕ k y ( x i ∣ w ) − 1 2 ) + 1 2 ) + 1 n C ∑ k = 1 C 1 2 ϕ k y ( x i ∣ w ) ∑ i = 1 n k + ( ϕ k p f c 7 − ϕ k i f c 7 ) T ( ϕ k p f c 7 − ϕ k i f c 7 ) E(mathbf{w})=frac{lambda}{2}|mathbf{w}|^{2}+sum_{i=1}^{n} sum_{k=1}^{C} log left(y_{k i}left(phi_{k}^{mathbf{y}}left(mathbf{x}_{i} mid mathbf{w}right)-frac{1}{2}right)+frac{1}{2}right)+frac{1}{n C} sum_{k=1}^{C} frac{1}{2} phi_{k}^{mathbf{y}}left(mathbf{x}_{i} mid mathbf{w}right)sum_{i=1}^{n_{k}^{+}} left(phi_{k p}^{mathrm{fc} 7}-phi_{k i}^{mathrm{fc} 7}right)^{mathrm{T}}left(phi_{k p}^{mathrm{fc} 7}-phi_{k i}^{mathrm{fc} 7}right) E(w)=2λ​∥w∥2+i=1∑n​k=1∑C​log(yki​(ϕky​(xi​∣w)−21​)+21​)+nC1​k=1∑C​21​ϕky​(xi​∣w)i=1∑nk+​​(ϕkpfc7​−ϕkifc7​)T(ϕkpfc7​−ϕkifc7​)

延申阅读

[1] B、Zhou, A、Khosla, A、Lapedriza, A、Oliva, and A、Torralba、Object detectors emerge in deep scene CNNs、In ICLR, 2015.

[2] T、G、Dietterich, R、H、Lathrop, and T、Lozano-Pérez、Solving the multiple instance problem with axis-parallel rectangles、Artificial intelligence, 89(1):31–71, 1997.

[3] Tang P , Wang X , Bai X , et al、Multiple Instance Detection Network with online Instance Classifier Refinement[J]、IEEE Conference on Computer Vision & Pattern Recognition, 2017.

[4] Kosugi S , Yamasaki T , Aizawa K 、Object-Aware Instance Labeling for Weakly Supervised Object Detection[J]、2019.

Copyright © 2016-2020 www.365daan.com All Rights Reserved. 365答案网 版权所有 备案号:

部分内容来自互联网,版权归原作者所有,如有冒犯请联系我们,我们将在三个工作时内妥善处理。