Attention(注意力机制) Attention for Image Attention for Machine Translation Self-Attention 没有image-Attention:看图说话 整个网络属于分类任务。 Question:为什么不采用最后一层? 因为最后一层缺乏泛化能力(Lack of generalization capability) LSTM部分 将CN …
Attention(注意力机制) Attention for Image Attention for Machine Translation Self-Attention 没有image-Attention:看图说话 整个网络属于分类任务。 Question:为什么不采用最后一层? 因为最后一层缺乏泛化能力(Lack of generalization capability) LSTM部分 将CN …
COPYRIGHT © 2020 .Pteromyini ALL RIGHTS RESERVED.