语音识别中的Transformer和Conformer(一)简介先验知识Embedding什么是Padding、max_lenmax_lenPadding注意力机制TRM中的注意力Transformer架构整体网络架构代码Encoder==位置编码(PositionalEncoding)==获得Padding多头注意力机制前馈神经网络层解码端为什么需要mask解码器自身的MASK多头注意力机制编码器-解码器的交互MASK多头注意力机制参考连接简介随着端到端语音识别技术的发展,以Transformer、Conformer及其变种为首的模型架构在训练效率和字准率上已经超越传统的又贵又慢又不稳定的R