Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks
原文请狂击这里 概述 本文提出了一种简单实现却能力强大的reparameterization方法,目的是加快深度网络的收敛速度。 方法 该方法的基本原理是将权重的方向和大小解耦变成两个变量分别优化,这样做从概念上去理解是可以在两个维度上分别去收敛,加快收敛的速度原理显而易见。 该方法的实现方式也非常的简单,对于一个$y = active(x * w + b)$这样的一个简单层,基本...