CVPR2019行人重识别论文笔记1902.09080(SSA-CNN: Semantic Self-Attention CNN for Pedestrian Detection)
原文链接: https://arxiv.org/abs/1902.09080v1
摘要:
作者提出了通过探索分割结果作为自注意力机制的线索有助于提升识别性能。将语义特征图和卷积特征图合并,为行人识别与分类提供了更多的区分性特征。通过联合学习,作者提出的自注意力机制可以高效的识别行人区域并抑制背景。
文章贡献:
(1)提出了通过探索分割结果作为自注意力机制的线索有助于提升识别性能。
(2)提出了多尺度多任务学习框架,通过多尺度中间网络连接学习行人检测和语义分割,可以融合不同粒度的语义信息到共享特征图中。
(3)实验结果证明,本文的模型的识别性能是同类中的最高,且计算高效。
【CVPR2019行人重识别论文笔记1902.09080(SSA-CNN: Semantic Self-Attention CNN for Pedestrian Detection)】方法论:
作者的模型是以Faster R-CNN为框架,包含两部分:语义自注意力RPN(SSA-RPN)和语义自注意力R-CNN(SSA-RCNN)。其中SSA-RPN用于产生候选行人区域。SSA-RCNN用于提炼SSA-RPN的候选结果。网络结构:
文章图片
1. SSA-RPN
为了获得语义特征图,作者加入了两个语义分割分支conv4_3_seg和conv5_3_seg,并将seg分支的特征图和卷积特征图相连,损失函数:
文章图片
Lc为分类损失,Lr是边框回归对的损失,Ls是语义分割损失。
2. SSA-RCNN
首先,切割RGB输入图像,添加25%的padding填充,并缩放为112*112大小。与SSA-RPN不同的是,池化conv4_3层获得的语义特征图,与conv5_3层的语义特征图连接为自注意特征图,再将自注意力特征图与conv5_3的卷积特征图相连,进而为行人分类。损失函数:
文章图片
实验结果:
与SDS-RCNN相比,作者的模型在特征图中对于行人的注意力更强,效果更好。
文章图片
与其他的模型相比,文中的模型的性能有很大的超越:
文章图片
网络的运算时间也非常快:
文章图片
完结撒花!
欢迎大家评论吐槽!
推荐阅读
- JAVA(抽象类与接口的区别&重载与重写&内存泄漏)
- 2.6|2.6 Photoshop操作步骤的撤消和重做 [Ps教程]
- 我们重新了解付费。
- 人间词话的智慧
- 螃蟹和这些食物同吃,轻则腹泻、重则中毒!要小心哦~
- java中如何实现重建二叉树
- 2019-03-27健康减肥126天
- tableView|tableView 头视图下拉放大 重写
- 《老婆》
- 年国考行测备考(重要的题目做三遍)