当前位置: 首页> 文旅> 艺术 > transformer中的ffn

transformer中的ffn

时间:2025/7/13 18:27:34来源:https://blog.csdn.net/wshlchl/article/details/139392046 浏览次数:0次

## 
import torch
import torch.nn as nn
import torch.nn.functional as F
import logging
logging.basicConfig(level=logging.INFO, format='%(asctime)s %(levelname)s: %(message)s')
# 定义FFN层
class FeedForwardNetwork(nn.Module):
    def __init__(self, input_dim, hidden_dim, output_dim):
        super(FeedForwardNetwork, self).__init__()
        self.linear1 = nn.Linear(input_dim, hidden_dim)
        self.relu = nn.ReLU()
        self.linear2 = nn.Linear(hidden_dim, output_dim)

    def forward(self, x):
        x = self.linear1(x)
        x = self.relu(x)
        x = self.linear2(x)
        return x

# 测试FFN层
def test_ffn():
    input_dim = 4
    hidden_dim = 8
    output_dim = 4
    batch_size = 5
    seq_length = 6

    # 创建FFN层
    ffn = FeedForwardNetwork(input_dim, hidden_dim, output_dim)

    # 创建随机输入数据 (batch_size, seq_length, input_dim)
    input_data = torch.randn(batch_size, seq_length, input_dim)
    print(input_data)


    # 前向传播
    output_data = ffn(input_data)

    print("Input shape:", input_data.shape)
    print("Output shape:", output_data.shape)

if __name__ == "__main__":
    test_ffn()


 

关键字:transformer中的ffn

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: