当前位置: 首页> 游戏> 单机 > seo关键词优化哪个平台好_中国男篮最新消息_免费b站推广网站不_石狮seo

seo关键词优化哪个平台好_中国男篮最新消息_免费b站推广网站不_石狮seo

时间:2025/7/17 1:18:42来源:https://blog.csdn.net/m0_67869333/article/details/146074848 浏览次数:0次
seo关键词优化哪个平台好_中国男篮最新消息_免费b站推广网站不_石狮seo
  •  🍨 本文为🔗365天深度学习训练营中的学习记录博客
  • 🍖 原作者:K同学啊

目录

一、前期工作

1.导入数据并读取

2.创建数据加载器 

二、构建简单的CNN网络

三、训练模型

1.编写训练函数

2.编写测试函数

3.设置动态学习率

4.正式训练

四、结果可视化

五、尝试数据增强操作

六、总结

1.torchvision.transforms.Compose()类

2.[N, C, H, W]

3.感受野与卷积核大小的权衡 


一、前期工作

1.导入数据并读取

import torch.nn as nn
import torch
from torchvision import datasets
import os,PIL,pathlib
import torchvision
import torchvision.transforms as transforms
data_dir='D:/TensorFlow1/T5'
data_dir=pathlib.Path(data_dir)
data_path=list(data_dir.glob('*'))
classnames=[path.name for path in data_path if path.is_dir()]
classnames

# 关于transforms.Compose的更多介绍可以参考:https://blog.csdn.net/qq_38251616/article/details/124878863
train_transforms = transforms.Compose([transforms.Resize([224, 224]),  # 将输入图片resize成统一尺寸# transforms.RandomHorizontalFlip(), # 随机水平翻转transforms.ToTensor(),          # 将PIL Image或numpy.ndarray转换为tensor,并归一化到[0,1]之间transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])])test_transform = transforms.Compose([transforms.Resize([224, 224]),  # 将输入图片resize成统一尺寸transforms.ToTensor(),          # 将PIL Image或numpy.ndarray转换为tensor,并归一化到[0,1]之间transforms.Normalize(mean=[0.485, 0.456, 0.406], #ImageNet的均值和标准差std=[0.229, 0.224, 0.225])])train_dataset = datasets.ImageFolder("D:/TensorFlow1/T5/train/",transform=train_transforms)
test_dataset  = datasets.ImageFolder("D:/TensorFlow1/T5/test/",transform=test_transform)
train_dataset.class_to_idx  #用于映射数据集中每个类别的名称到一个唯一的整数索引。

2.创建数据加载器 

batch_size=32
train_dl=torch.utils.data.DataLoader(train_dataset,batch_size=batch_size,shuffle=True,num_workers=1)
test_dl=torch.utils.data.DataLoader(test_dataset,batch_size=batch_size,shuffle=True,num_workers=1)
for X, y in test_dl:print("Shape of X [N, C, H, W]: ", X.shape)print("Shape of y: ", y.shape, y.dtype)break

二、构建简单的CNN网络

import torch.nn.functional as F    #导入torch.nn.functional模块,通常用于调用一些函数式的操作class Model(nn.Module):def __init__(self):super(Model, self).__init__()self.conv1=nn.Sequential(nn.Conv2d(3, 12, kernel_size=5, padding=0), # 12*220*220  输入通道数 3,输出通道数 12,卷积核大小 5x5,无填充nn.BatchNorm2d(12),nn.ReLU())self.conv2=nn.Sequential(nn.Conv2d(12, 12, kernel_size=5, padding=0), # 12*216*216nn.BatchNorm2d(12),nn.ReLU())self.pool3=nn.Sequential(nn.MaxPool2d(2))                              # 12*108*108self.conv4=nn.Sequential(nn.Conv2d(12, 24, kernel_size=5, padding=0), # 24*104*104nn.BatchNorm2d(24),nn.ReLU())self.conv5=nn.Sequential(nn.Conv2d(24, 24, kernel_size=5, padding=0), # 24*100*100nn.BatchNorm2d(24),nn.ReLU())self.pool6=nn.Sequential( nn.MaxPool2d(2))                              # 24*50*50self.dropout = nn.Sequential(nn.Dropout(0.25))self.fc=nn.Sequential(nn.Linear(24*50*50, len(classenames)))def forward(self, x):batch_size = x.size(0)x = self.conv1(x)  # 卷积-BN-激活x = self.conv2(x)  # 卷积-BN-激活x = self.pool3(x)  # 池化x = self.conv4(x)  # 卷积-BN-激活x = self.conv5(x)  # 卷积-BN-激活x = self.pool6(x)  # 池化x = self.dropout(x)x = x.view(batch_size, -1)  # # 将卷积层的输出展平成一维向量 (batch, 24*50*50) ==> (batch, -1), -1 此处自动算出的是24*50*50x = self.fc(x)return x
model = Model()
model

三、训练模型

1.编写训练函数

# 训练循环
def train(dataloader, model, loss_fn, optimizer):size = len(dataloader.dataset)  # 训练集的大小num_batches = len(dataloader)   # 批次数目, (size/batch_size,向上取整)train_loss, train_acc = 0, 0  # 初始化训练损失和正确率for X, y in dataloader:  # 获取图片及其标签        # 计算预测误差pred = model(X)          # 网络输出loss = loss_fn(pred, y)  # 计算网络输出和真实值之间的差距,targets为真实值,计算二者差值即为损失# 反向传播optimizer.zero_grad()  # grad属性归零loss.backward()        # 反向传播optimizer.step()       # 每一步自动更新# 记录acc与losstrain_acc  += (pred.argmax(1) == y).type(torch.float).sum().item()train_loss += loss.item()train_acc  /= sizetrain_loss /= num_batchesreturn train_acc, train_loss

2.编写测试函数

def test (dataloader, model, loss_fn):size        = len(dataloader.dataset)  # 测试集的大小num_batches = len(dataloader)          # 批次数目, (size/batch_size,向上取整)test_loss, test_acc = 0, 0# 当不进行训练时,停止梯度更新,节省计算内存消耗with torch.no_grad():for imgs, target in dataloader:        # 计算losstarget_pred = model(imgs)loss        = loss_fn(target_pred, target)test_loss += loss.item()test_acc  += (target_pred.argmax(1) == target).type(torch.float).sum().item()test_acc  /= sizetest_loss /= num_batchesreturn test_acc, test_loss

3.设置动态学习率

def adjust_learning_rate(optimizer, epoch, start_lr):# 每 2 个epoch衰减到原来的 0.92lr = start_lr * (0.92 ** (epoch // 2))for param_group in optimizer.param_groups:param_group['lr'] = lrlearn_rate = 1e-4 # 初始学习率
optimizer  = torch.optim.SGD(model.parameters(), lr=learn_rate)

4.正式训练

loss_fn    = nn.CrossEntropyLoss() # 创建损失函数
epochs     = 40train_loss = []
train_acc  = []
test_loss  = []
test_acc   = []for epoch in range(epochs):# 更新学习率(使用自定义学习率时使用)adjust_learning_rate(optimizer, epoch, learn_rate)model.train()epoch_train_acc, epoch_train_loss = train(train_dl, model, loss_fn, optimizer)# scheduler.step() # 更新学习率(调用官方动态学习率接口时使用)model.eval()epoch_test_acc, epoch_test_loss = test(test_dl, model, loss_fn)train_acc.append(epoch_train_acc)train_loss.append(epoch_train_loss)test_acc.append(epoch_test_acc)test_loss.append(epoch_test_loss)# 获取当前的学习率lr = optimizer.state_dict()['param_groups'][0]['lr']template = ('Epoch:{:2d}, Train_acc:{:.1f}%, Train_loss:{:.3f}, Test_acc:{:.1f}%, Test_loss:{:.3f}, Lr:{:.2E}')print(template.format(epoch+1, epoch_train_acc*100, epoch_train_loss, epoch_test_acc*100, epoch_test_loss, lr))
print('Done')

四、结果可视化

import matplotlib.pyplot as plt
#隐藏警告
import warnings
warnings.filterwarnings("ignore")               #忽略警告信息
plt.rcParams['font.sans-serif']    = ['SimHei'] # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False      # 用来正常显示负号
plt.rcParams['figure.dpi']         = 100        #分辨率from datetime import datetime
current_time = datetime.now() # 获取当前时间epochs_range = range(epochs)plt.figure(figsize=(12, 3))
plt.subplot(1, 2, 1)plt.plot(epochs_range, train_acc, label='Training Accuracy')
plt.plot(epochs_range, test_acc, label='Test Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')
plt.xlabel(current_time) # 打卡请带上时间戳,否则代码截图无效plt.subplot(1, 2, 2)
plt.plot(epochs_range, train_loss, label='Training Loss')
plt.plot(epochs_range, test_loss, label='Test Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()

五、尝试数据增强操作

根据loss和accuracy图,训练准确率明显高于测试准确率,可能表明模型在训练集上过拟合。因此,我将尝试对训练集样本进行翻转、旋转等增强操作。

train_transforms = transforms.Compose([transforms.Resize((224, 224)),transforms.RandomHorizontalFlip(p=0.5),transforms.RandomRotation(10),transforms.ColorJitter(brightness=0.2, contrast=0.2, saturation=0.2),transforms.ToTensor(),transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])])

最后得到

尽管过拟合程度没有增强前高,但总体准确率和损失都不如第一组图,也许是模型的学习能力较弱,或者训练数据不足,导致模型未能充分学习到数据的特征。

六、总结

1.torchvision.transforms.Compose()

用于将多个图像变换操作组合成一个序列。在深度学习中,对图像数据进行预处理是一个常见的操作,例如调整图像大小、归一化、裁剪等,Compose() 可以将这些操作按顺序依次应用到输入的图像上。

注意,这里的mean和std取的是imagenet的。若数据集是自然场景图像(如人、动物、建筑等),或使用了预训练模型(如基于 ImageNet 数据集训练的模型)建议使用Imagenet的mean和std。
如果你的数据集与 ImageNet 不同(例如医学图像、卫星图像或经过特殊处理的图像),建议计算你自己的数据集的均值和标准差。但对于CIFAR-10、COCO等数据集有自己的mean和std

2.[N, C, H, W]

在图像数据中,通常遵循 [N, C, H, W] 的格式,其中:

  • N 表示批次大小(即一个批次中包含的图像数量)。
  • C 表示图像的通道数,对于彩色图像通常为 3(RGB 三个通道)。
  • H 表示图像的高度。
  • W 表示图像的宽度。

3.感受野与卷积核大小的权衡 

  • 卷积核:卷积核是卷积神经网络中用于对输入数据进行卷积操作的小型矩阵。在图像卷积操作中,卷积核在输入图像上滑动,逐元素相乘并求和,从而提取输入图像的特征。卷积核的大小(如 3x3 等)和数量(即输出通道数)是卷积层的重要参数。
  • 感受野:感受野是指卷积神经网络中某一层输出特征图上的一个像素点对应输入图像上的区域大小。简单来说,感受野描述了卷积神经网络中某个神经元能够 “看到” 的输入图像的区域范围。

感受野和卷积核大小有什么关系?

  • 增大卷积核大小:使用更大的卷积核可以在单个卷积层中获得更大的感受野,从而使模型能够捕捉到更广泛的上下文信息。然而,增大卷积核大小会增加模型的参数量和计算复杂度,并且可能会忽略一些局部细节信息。
  • 堆叠小卷积核:多个小卷积核堆叠的效果通常优于一个大卷积核。通过堆叠多个小卷积核,可以在获得相同感受野的情况下,减少模型的参数量和计算复杂度。例如,两个 3x3 的卷积核堆叠可以获得与一个 5x5 卷积核相同的感受野,但参数量更少。
关键字:seo关键词优化哪个平台好_中国男篮最新消息_免费b站推广网站不_石狮seo

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: