Author Archive: nex3z

[Reading] Deep Residual Learning for Image Recognition

Deep Residual Learning for Image Recognition (2015/12) 1. 概述   文章的主要贡献有: 分析了过深的网络性能反而变差的原因,提出了通过残差学习(residual learning)来解决劣化的方法,使得训练更深的网络变得更加容易。相比于直接学习目标映射,学习目标映射与输入的残差更容易进行优化。 提出了用于残差学习的基础结…
Read more

[Reading] Rethinking the Inception Architecture for Computer Vision

Rethinking the Inception Architecture for Computer Vision (2015/12) 1. 概述   文章的主要贡献有: 给出了一系列网络设计原则来更有效地增大卷积网络,指出虽然增加网络尺寸和计算量可以有效提高性能,但在移动端等计算能力受限的场景下,保持计算量和参数数量也很重要。 以 Inception 模块为基础,通过使用分解…
Read more

[Reading] Spatial Transformer Networks

Spatial Transformer Networks (2015/6) 1. 概述   文章的主要贡献有: 提出了一种对特征图进行空间变换的模块,称为 Spatial Transformer(ST)。该模块可以通过学习,对不同的特征图进行适当的变换,增强卷积神经网络对输入数据的空间不变性,从而提高网络性能。其主要特点有: ST 作为一个独立的模块,可以很容易地插入到已有的网…
Read more

[Reading] Going Deeper with Convolutions

Going Deeper with Convolutions (2014/9) 1. 概述   文章的主要贡献有: 提出的 Inception 模块通过组合多种卷积和池化,增加网络深度和宽度,同时通过 $1 \times 1$ 卷积进行压缩来减少计算,在大幅提高性能的同时控制计算量。 通过堆叠 Inception 模块得到的 Inception 网络(GoogLeNet)在当时…
Read more

[Reading] Network In Network

Network In Network (2013/12) 1. 概述   文章的主要贡献有: 提出了 mlpconv 层结构,使用多层感知机来对感受野内的数据进行抽象,提升过滤器对局部图块的建模能力。这种结构相当于 $1 \times 1$ 卷积,在后来得到了广泛应用。 在进行分类时使用全局平均池化替换全连接层,起到了正则化的效果,避免了过拟合,同时建立起特征图和分类置信度间的…
Read more