如果我们用MLP处理图像,用输入层图像$\mathbf{X}(高H,宽W)$、其隐藏层表示$\mathbf{H}$是矩阵或者说是二维张量,且二者形状相同。
我们想要所有隐藏神经元都能接收到每一个像素的信息,就要使用四阶张量$\mathbf W$。
设 $bias=\mathbf U$,可以把全连接层写为:
$$
\begin{split}\begin{aligned} \left[\mathbf{H}\right]
{i, j} &= [\mathbf{U}] + \sum_k \sum_l[\mathbf{ W}]
{i, j, k, l} [\mathbf{X}]\ \ &令 k = i + a,l = j + b,则 [\mathbf W]
{i,j,i+a,j+b} = [\mathbf V]\
\&= [\mathbf{U}]
{i, j} +
\sum_a \sum_b [\mathbf{V}] [\mathbf{X}]_{i+a, j+b}\end{aligned}\end{split}
$$
我们为什么做$W\rightarrow V$这个公式的形式上的变换呢?
为了便于理解、过渡
一只菜鸟学深度学习的日记:入门卷积
未经允许不得转载:小狮博客 » 一只菜鸟学深度学习的日记:入门卷积
小狮博客