欢迎光临
我们一直在努力

transformer论文解读

Self-attention
transformer 论文之前已经有人提出,但
transformer 是第一个只依赖自注意力机制(self-attnetion)来实现
encoder-decoder 架构的模型。

赞(0)
未经允许不得转载:小狮博客 » transformer论文解读
分享到: 更多 (0)