当前位置: 首页> 科技> 互联网 > 西安网站设计哪家公司好_个人博客网站制作教程_最新网域查询入口_免费推广的预期效果

西安网站设计哪家公司好_个人博客网站制作教程_最新网域查询入口_免费推广的预期效果

时间:2025/9/10 13:58:55来源:https://blog.csdn.net/serpenttom/article/details/144817893 浏览次数:0次
西安网站设计哪家公司好_个人博客网站制作教程_最新网域查询入口_免费推广的预期效果

张量

张量是 paddlepaddle, torch, tensorflow 等 python 主流机器学习包中唯一通货变量,因此应当了解其基本的功能。

张量 paddle.Tensor 与 numpy.array 的转化

import paddle as paddle
import matplotlib.pyplot as plt 
a=paddle.to_tensor(list(paddle.arange(-3.14,3.15,0.01))) # 生成张量a包含从-3.14到3.14间隔0.01的一维张量
b=paddle.sin(a) 
x=paddle.Tensor.numpy(a)  # 将张量a转化为numpy 数组
y=paddle.Tensor.numpy(b)  # 将张量b转化为numpy 数组
plt.plot(x,y)
plt.grid(True)

在这里插入图片描述

张量 Tensor

stop_gradient 查看一个 Tensor 是否计算并传播梯度,如果 stop_gradient 为 True,则该 Tensor 不会计算梯度,并会阻绝 Autograd 的梯度传播。 反之,则会计算梯度并传播梯度。用户自行创建的 Tensor,默认是 True,模型参数的 stop_gradient 都为 False。

place 查看一个 Tensor 的设备位置,Tensor 可能的设备位置有三种:CPU/GPU/固定内存,其中固定内存也称为不可分页内存或锁页内存, 其与 GPU 之间具有更高的读写效率,并且支持异步传输,这对网络整体性能会有进一步提升,但其缺点是分配空间过多时可能会降低主机系统的性能, 因为其减少了用于存储虚拟内存数据的可分页内存。

  1. CPU: place=paddle.CPUPlace() 或 place=Place(cpu)
  2. GPU: place=paddle.CUDAPlace(0) 或 place=Place(gpu:0)

name 名字

persistable 不会被删除的持久性变量

一维张量

shape 维数
| 0 | 1 |…|n-1|
| - | -| -|- |
|a[0] | a[1] |… |a[n-1]|

a=paddle.to_tensor([0,1,2])
print(a)
print(a.shape)
print(a.place)
print(a.stop_gradient)
a.stop_gradient=False
print(a.stop_gradient)
a.name='Var_a'
print(a.name)
Tensor(shape=[3], dtype=int64, place=Place(cpu), stop_gradient=True,[0, 1, 2])
[3]
Place(cpu)
True
False
Var_a
b=paddle.to_tensor([[0,1,2],[4,5,6]])
print(b)
print(b.shape)
print(b[0])
print(b[0,0:2])
print(b[:,1])
Tensor(shape=[2, 3], dtype=int64, place=Place(cpu), stop_gradient=True,[[0, 1, 2],[4, 5, 6]])
[2, 3]
Tensor(shape=[3], dtype=int64, place=Place(cpu), stop_gradient=True,[0, 1, 2])
Tensor(shape=[2], dtype=int64, place=Place(cpu), stop_gradient=True,[0, 1])
Tensor(shape=[2], dtype=int64, place=Place(cpu), stop_gradient=True,[1, 5])

Tensor 其他属性

dtype 数据类型, ‘bool’,‘float16’,‘float32’,‘float64’,‘uint8’,‘int8’,‘int16’,‘int32’,‘int64’

type 类型

is_leaf 梯度链式法则网上的叶子 (stop_gradient=True)

ndim 张量维数

shape 张量形状

import paddlex = paddle.to_tensor([1, 2, 3])
y = x[1]
print(y.is_contiguous())
True

渐进步长梯度下降法

考虑函数 f ( x ) = x 0 2 + x 1 2 f(x)=x_0^2+x_1^2 f(x)=x02+x12, 梯度为 ∇ f ( x ) = 2 ( x 0 , x 1 ) ⊤ \nabla f(x)=2(x_0,x_1)^\top f(x)=2(x0,x1)

则其梯度下降格式为

x k + 1 = x k − α k ∇ f ( x k ) x_{k+1}=x_k- \alpha_k \nabla f(x_k) xk+1=xkαkf(xk)

import paddle
root = paddle.to_tensor([[1], [2]], dtype='float32', stop_gradient=False)
y = root[0]**2+root[1]**2
paddle.autograd.backward(y,root,True)
print(root.grad)
for i in range(300):root= root - root.grad/(i+3)root = paddle.to_tensor(root, dtype='float32', stop_gradient=False) # 不得已而为之, 不然报错 因为 root.grad 输出为 Noney = root[0]**2+root[1]**2   # 更新目标函数值paddle.autograd.backward(y,root,True)  # 更新梯度
print(root)
Tensor(shape=[2, 1], dtype=float32, place=Place(cpu), stop_gradient=False,[[2.],[4.]])
Tensor(shape=[2, 1], dtype=float32, place=Place(cpu), stop_gradient=False,[[0.08197821],[0.16395642]])

关键字:西安网站设计哪家公司好_个人博客网站制作教程_最新网域查询入口_免费推广的预期效果

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: