一只菜鸟学深度学习的日记:入门卷积

如果我们用MLP处理图像,用输入层图像$\mathbf{X}(高H,宽W)$、其隐藏层表示$\mathbf{H}$是矩阵或者说是二维张量,且二者形状相同。

我们想要所有隐藏神经元都能接收到每一个像素的信息,就要使用四阶张量$\mathbf W$。

设 $bias=\mathbf U$,可以把全连接层写为:

$$

\begin{split}\begin{aligned} \left[\mathbf{H}\right]
{i, j} &= [\mathbf{U}] + \sum_k \sum_l[\mathbf{ W}]
{i, j, k, l} [\mathbf{X}]\ \ &令 k = i + a,l = j + b,则 [\mathbf W]
{i,j,i+a,j+b} = [\mathbf V]\

\&= [\mathbf{U}]
{i, j} +
\sum_a \sum_b [\mathbf{V}]
[\mathbf{X}]_{i+a, j+b}\end{aligned}\end{split}

$$

我们为什么做$W\rightarrow V$这个公式的形式上的变换呢?

为了便于理解、过渡

赞(0)
未经允许不得转载:小狮博客 » 一只菜鸟学深度学习的日记:入门卷积
分享到: 更多 (0)

联系我们