Self-attention 在
transformer 论文之前已经有人提出,但
transformer 是第一个只依赖自注意力机制(self-attnetion)来实现
encoder-decoder 架构的模型。
transformer论文解读
未经允许不得转载:小狮博客 » transformer论文解读
Self-attention 在
transformer 论文之前已经有人提出,但
transformer 是第一个只依赖自注意力机制(self-attnetion)来实现
encoder-decoder 架构的模型。