当前位置: 首页> 汽车> 行情 > 营销推广的目标_建设网站的报价_网站seo推广计划_google推广技巧

营销推广的目标_建设网站的报价_网站seo推广计划_google推广技巧

时间:2025/7/12 20:12:48来源:https://blog.csdn.net/qq_52482640/article/details/146216360 浏览次数: 0次
营销推广的目标_建设网站的报价_网站seo推广计划_google推广技巧

文章目录

  • 前言
  • 一、Encoder
  • 二、Decoder
  • 流程
      • 流程1 embedding
      • 流程2 注意力机制
          • 1.注意力机制:
          • multi-self attention
          • 2.ADD NORM
          • 3.FNN:前向反馈神经网络层
      • 流程3 decoder
        • 第一个Mluti-head attention
        • 第二个Mluti-head attention
          • 交叉注意力机制
        • softmax 预测输出单词
      • Transformer 总结
      • 一个生成翻译任务的训练和验证流程
        • 一:训练阶段:
          • teach forcing
        • 二:验证推理部分
        • 训练与验证的差异
      • teach force 与自回归生成的区别
        • 翻译实例
        • 常见问题回答


前言

transformer是大模型的基础,由encoder和decoder组成,
以翻译任务为例,输入一句话经过transformer生成其翻译内容。
实际应用中,都是由多个encoder和多个decoder构成编码器和解码器

一、Encoder

每个encoder实际上是由两个层构成,第一层是自注意力层,第二层是FFN前馈网络层。编码器的输入会先流经自注意力层,它可以让编码器在对特定词编码时使用输入句子中其他的信息。可以理解成翻译一个词的时候,不仅关注当前词而且还会关注其他词的信息。

二、Decoder

每个解码器有三层,除了self-attention层(mask的)和FNN外,还有Encoder-Decoder Attention层,该层用于帮助解码器关注输入句子的相关部分的。

流程

1.一般我们在处理NLP问题时,都要先把它变成在空间上可以计算的向量,即通过embedding词嵌入的形式。而词嵌入只发生在最底层的编码器中,即最下面的编码器接受的是词嵌入向量embedding,其他编码器接收的是下层编码器的输出。
2.每层encoder会将接收到的向量先经过self-attention再经过FNN后输出给下一个编码器。
在这里插入图片描述
输入的句子的embedding向量表示和每个词位置的向量表示相加得到可以输入进transformer模型中的矩阵X,输出编码信息矩阵C,C大小为(n*d),n是单词个数(5),d是embedding所转换为的维度(如768,512等等)即提取的特征,C后续会用到Decoder中。
3.注:decoder翻译时,依次会根据当前翻译过的单词1~i翻译下一个单词i+1,如下图所示。在使用过程中,翻译到单词i+1的时候需要通过Mask掩盖i+1后面的单词,第i+1个单词时不能用它后面的单词信息,只能用它本身及i+1之前的单词信息,因为后面的信息被mask了,由于decoder的mask-selfattention层会防止解码器在生成时“看到”未来信息,只能利用前面出现过的进行计算。
下图 Decoder 接收了 Encoder 的编码矩阵 C,然后首先输入一个翻译开始符 “”,预测第一个单词 “I”;然后输入翻译开始符 “” 和单词 “I”,预测单词 “have”,以此类推。这是 Transformer 使用时候的大致流程,接下来是里面各个部分的细节。
在这里插入图片描述

流程1 embedding

单词的embedding有经典的方法:word2vec,可以将词转换成空间维度中相同维度的向量。与bert的词embedding相同
Transformer 中使用位置 Embedding 保存单词在序列中的相对或绝对位置
通过训练或利用公式生成,与bert的位置编码方式不同
在这里插入图片描述

二者相加得到transformer的输入矩阵x

流程2 注意力机制

红色圈中的部分为 Multi-Head Attention,是由多个 Self-Attention组成的,可以看到 Encoder block 包含一个 Multi-Head Attention,而 Decoder block 包含两个 Multi-Head Attention (其中有一个用到 Masked)。Multi-Head Attention 上方还包括一个 Add & Norm 层,Add 表示残差连接 (Residual Connection) 用于防止网络退化,Norm 表示 Layer Normalization,用于对每一层的激活值进行归一化。
在这里插入图片描述

1.注意力机制:

在计算的时候需要用到矩阵Q(查询),K(键值),V(值)。在实际中,Self-Attention 接收的是输入(单词的表示向量x组成的矩阵X) 或者上一个 Encoder block 的输出。而Q,K,V正是通过 Self-Attention 的输入进行线性变换得到的。
Q、K、V 是通过输入与可学习的权重矩阵Wq,Wk,Wv计算得到的,模型会根据任务目标(如分类、生成等)调整这些权重,从而提取有用的特征。而权重矩阵(如 Q、K、V 的权重矩阵)的初始化是随机的,但它们的值并不是固定的,而是会在训练过程中通过梯度下降等优化算法不断更新,最终学习到适合任务的值。
Self-Attention 的输入用矩

关键字:营销推广的目标_建设网站的报价_网站seo推广计划_google推广技巧

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: