当前位置: 首页> 财经> 创投人物 > 微信微商城开发_四川省建筑市场管理平台_seo搜索是什么意思_友情链接有用吗

微信微商城开发_四川省建筑市场管理平台_seo搜索是什么意思_友情链接有用吗

时间:2025/7/13 20:02:22来源:https://blog.csdn.net/qq_63911508/article/details/147176586 浏览次数:0次
微信微商城开发_四川省建筑市场管理平台_seo搜索是什么意思_友情链接有用吗

摘要

神经网络是深度学习的核心!本文将带你从零开始理解神经网络的基本原理,包括感知机模型、激活函数选择、反向传播算法等核心概念,并通过Python实现一个简单的全连接神经网络。文末提供《神经网络公式推导手册》和实战项目资源包!

目录

目录

摘要

目录

一、神经网络基础概念

1.1 感知机模型

1.2 常用激活函数

二、前向传播与反向传播

2.1 前向传播过程

2.2 损失函数

2.3 反向传播算法

三、Python实现全连接神经网络

四、神经网络实战应用

4.1 异或问题求解

4.2 手写数字识别(MNIST)

五、神经网络优化技巧

5.1 超参数调优

5.2 防止过拟合

六、结语与资源

附录:进阶学习路线


一、神经网络基础概念

1.1 感知机模型

感知机是最简单的神经网络单元,其数学表达式为:


y = f(\sum_{i=1}^n w_i x_i + b)


其中:

  • x_i:输入特征

  • w_i:权重参数

  • b:偏置项

  • f:激活函数

1.2 常用激活函数

函数名称数学表达式特点
Sigmoid\sigma(x) = \frac{1}{1+e^{-x}}输出范围(0,1)
ReLUf(x) = max(0,x)计算简单,缓解梯度消失
Tanhtanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}}输出范围(-1,1)

二、前向传播与反向传播

2.1 前向传播过程

对于L层神经网络,第l层的输出为:


a^{(l)} = f(z^{(l)}) = f(W^{(l)}a^{(l-1)} + b^{(l)})

2.2 损失函数

常用交叉熵损失函数:
J(W,b) = -\frac{1}{m}\sum_{i=1}^m [y^{(i)}\log(\hat{y}^{(i)}) + (1-y^{(i)})\log(1-\hat{y}^{(i)})]

2.3 反向传播算法

关键梯度计算公式:

  1. 输出层误差:
    \delta^{(L)} = \hat{y} - y

  2. 隐藏层误差:
    \delta^{(l)} = (W^{(l+1)})^T \delta^{(l+1)} \odot f'(z^{(l)})

  3. 参数梯度:
    \frac{\partial J}{\partial W^{(l)}} = \delta^{(l)}(a^{(l-1)})^T

  4. \frac{\partial J}{\partial b^{(l)}} = \delta^{(l)}

三、Python实现全连接神经网络

import numpy as npclass NeuralNetwork:def __init__(self, layers, learning_rate=0.01):self.layers = layers  # 网络结构,如[2,4,1]self.lr = learning_rateself.weights = []self.biases = []# 初始化参数for i in range(len(layers)-1):self.weights.append(np.random.randn(layers[i+1], layers[i]) * 0.1)self.biases.append(np.zeros((layers[i+1], 1)))def sigmoid(self, x):return 1 / (1 + np.exp(-x))def sigmoid_derivative(self, x):return x * (1 - x)def forward(self, X):self.activations = [X.T]self.z_values = []for w, b in zip(self.weights, self.biases):z = np.dot(w, self.activations[-1]) + bself.z_values.append(z)self.activations.append(self.sigmoid(z))return self.activations[-1]def backward(self, X, y):m = X.shape[0]y = y.reshape(-1, 1).T# 计算输出层误差delta = (self.activations[-1] - y) * self.sigmoid_derivative(self.activations[-1])# 反向传播for l in range(len(self.layers)-2, 0, -1):self.weights[l] -= self.lr * np.dot(delta, self.activations[l].T) / mself.biases[l] -= self.lr * np.sum(delta, axis=1, keepdims=True) / mdelta = np.dot(self.weights[l].T, delta) * self.sigmoid_derivative(self.activations[l])# 更新第一层参数self.weights[0] -= self.lr * np.dot(delta, self.activations[0].T) / mself.biases[0] -= self.lr * np.sum(delta, axis=1, keepdims=True) / mdef train(self, X, y, epochs):for epoch in range(epochs):output = self.forward(X)self.backward(X, y)if epoch % 100 == 0:loss = -np.mean(y * np.log(output) + (1-y) * np.log(1-output))print(f"Epoch {epoch}, Loss: {loss:.4f}")

四、神经网络实战应用

4.1 异或问题求解

# 准备数据
X = np.array([[0,0], [0,1], [1,0], [1,1]])
y = np.array([[0], [1], [1], [0]])# 创建网络
nn = NeuralNetwork(layers=[2,4,1], learning_rate=0.1)# 训练网络
nn.train(X, y, epochs=5000)# 测试效果
print("Predictions:")
for x in X:print(f"{x} -> {nn.forward(x.reshape(1,-1))[0,0]:.3f}")
 

4.2 手写数字识别(MNIST)

from tensorflow.keras.datasets import mnist
from tensorflow.keras.utils import to_categorical# 加载数据
(X_train, y_train), (X_test, y_test) = mnist.load_data()
X_train = X_train.reshape(-1, 784) / 255.0
X_test = X_test.reshape(-1, 784) / 255.0
y_train = to_categorical(y_train)
y_test = to_categorical(y_test)# 创建更大的网络
mnist_nn = NeuralNetwork(layers=[784, 128, 64, 10], learning_rate=0.01)# 训练(实际应用中建议使用深度学习框架)
# mnist_nn.train(X_train, y_train, epochs=10)
 

五、神经网络优化技巧

5.1 超参数调优

参数调优方法典型值
学习率学习率衰减0.1-0.0001
批量大小尝试不同批次32-256
网络深度逐步增加2-10层

5.2 防止过拟合

  • Dropout技术

  • L2正则化

  • 早停法(Early Stopping)

六、结语与资源

通过本文您已经掌握了:
🔹 神经网络基本原理 🔹 反向传播算法推导 🔹 Python实现简单神经网络


附录:进阶学习路线

  1. 卷积神经网络(CNN) - 图像处理

  2. 循环神经网络(RNN) - 时序数据处理

  3. 注意力机制 - Transformer模型基础

关键字:微信微商城开发_四川省建筑市场管理平台_seo搜索是什么意思_友情链接有用吗

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: