经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 程序设计 » Python » 查看文章
零基础学习人工智能—Python—Pytorch学习(一)
来源:cnblogs  作者:kiba518  时间:2024/8/7 11:06:20  对本文有异议

前言

其实学习人工智能不难,就跟学习软件开发一样,只是会的人相对少,而一些会的人写文章,做视频又不好好讲。
比如,上来就跟你说要学习张量,或者告诉你张量是向量的多维度等等模式的讲解;目的都是让别人知道他会这个技术,但又不想让你学。
对于学习,多年的学习经验,和无数次的回顾学习过程,都证明了一件事,如果一篇文章,一个视频,一个课程,我没学明白,那问题一定不在我,而是上课的主动或被动的不想让我学会,所以,出问题的一定是学习资料。
比如英语,当真会了以后,再回去看自己之前学过的课,就知道了,那是英语老师没好好教,哪有真正想让你学会英语的人,会告诉你【come=来,out=出去】呀。
比如线性代数,等会了以后,再回去看之前看不懂的课程视频,就知道了,是上课老师估计模糊的关键信息。
学习软件开发,相信大家也都有类似的经验,当你想学一个知识点时,各种搜索,就是看不懂,最后学会的原因只有两种,1,你找到了真正的教你知识的文章,2,你通过搜索的信息,自己悟了出来。这其实就是在证明,绝大多数的文章和视频都不想真正教你,包括正规学校的老师和教材。

入门学习

首先,介绍一下我学习的资料,我通过一通搜索,终于找到了最好的学习资料,该视频是认真教你学习的,唯一的缺点可能就是,上课的人说的是英语,有点印度口音。不过,个人感觉他带点口语,反而更好听懂。
重点关注一下下面单词视频里会多次提到,注意了后就不会被英语卡住了。
numpy:这个单词,这不是个单词,但是是python的库。
vector:向量,下面有解释。
tensor:张量,下面有解释。
gradient:梯度,指的就是我下面的提到的求偏导数。
地址是:https://www.youtube.com/watch?v=exaWOE8jvy8&list=PLqnslRFeH2UrcDBWF5mfPGpqQDSta6VK4&index=3

安装

pytorch和tensorflow都是做人工智能的,prtorch的函数相对更友好,所以入门更高效。
pytorch官网地址:https://pytorch.org/get-started/locally/
使用pytorch前,先安装环境,我这里使用了vscode,安装完vscode后,在扩展里把python的包瞎按一些就行。
一般来讲学习都使用cpu版本。安装命令如下:

  1. pip3 install torch torchvision torchaudio

如果使用gpu,安装命令如下:

  1. pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124

安装完成后,执行代码,如果执行成功,则安装成功。

  1. import torch
  2. x =torch.ones(1)
  3. print(x)

名词介绍

矩阵:就是我们的表。
向量(vector):这种只有一行/一列的矩阵,叫向量。

  1. 1,1,0

二维张量(tensor2D):这有多行多列的矩阵叫二维张量。

  1. 1,1,0
  2. 1,0,1

三维张量(tensor3D),就是三维数组。
多维张量同多维数组。
为什么叫向量或者张量?我们把[1,1,0]换个想象就行,[1,1,0]是自原点向x=1,y=1,z=0发射出去的线,那[1,1,0]就不在是个数据了,就变成张量了。但本质还是数据。这地方不要细究,理解就可以了,毕竟我们不是研究数学的。

代码入门

使用pytorch进行张量的基础。

  1. import torch
  2. import numpy as np
  3. x=torch.empty(1) # 创建一个只有一个元素的向量(vector),元素值是未定义的,未定义的就是0,打印出来是【0.】,这是因为默认的元素类型是float32
  4. print(x)
  5. x=torch.empty(3) # 创建一个有三个元素的向量(vector),元素值是未定义的
  6. print(x)
  7. x=torch.empty(3,2) # 创建一个矩阵,,元素值是未定义的
  8. print(x)
  9. x=torch.rand(3,2) # 创建一个3*2的矩阵,并随机赋值
  10. print(x)
  11. x=torch.zeros(3,2) # 创建一个3*2的矩阵,并赋值0
  12. print(x)
  13. x=torch.ones(2,2) # 创建一个2*2的矩阵,并赋值1,打印出来是【1.】
  14. print(x)
  15. print("打印类型")
  16. print(x.dtype) #dtype是data type,会打印出元素的类型,打印内容是torch.float32
  17. x=torch.ones(3,3,dtype=torch.int) # 创建一个3*3的矩阵,并赋值1,打印出来是【1】,这会就不带.了
  18. print(x)
  19. x=torch.ones(3,3,dtype=torch.double) # 创建一个3*3的矩阵,并赋值1,打印出来是【1.】,double类型又带.了
  20. print(x)
  21. print(x.size()) #size是个函数,这样打印会打印出toString()的感觉,值是【torch.Size([3, 3])】
  22. print(x.size().numel()) # 元素个数,值是9
  23. x=torch.tensor([2.2,3.1]) # 自定义张量
  24. print(x)
  25. print("===========加法============")
  26. x=torch.ones(3,3,dtype=torch.int) # 创建一个3*3的矩阵,并赋值1,打印出来是【1】,这会就不带.了
  27. print(x)
  28. y =torch.ones(3,3,dtype=torch.int)
  29. print(y)
  30. z=x+y #矩阵相加
  31. print(z)
  32. z=torch.add(x,y) #矩阵相加
  33. print(z)
  34. print("===========计算print(y.add_(x))============")
  35. print(y.add_(x)) #把x加到y中去
  36. print("===========减法============")
  37. z=x-y #矩阵相减
  38. print(z)
  39. z=torch.sub(x,y) #矩阵相减
  40. print(z)
  41. print("===========计算print(y.sub_(x))============")
  42. print(y.sub_(x)) #把x减去从y中
  43. print("===========乘法============") #这个乘法是元素相对的相乘,而不是线性代数的 A23*A32
  44. z=x*y #矩阵相乘
  45. print(z)
  46. z=torch.mul(x,y)
  47. print(z)
  48. print(y.mul_(x))
  49. print("===========除法============")
  50. z=x/y #矩阵相乘除
  51. print(z)
  52. z=torch.div(x,y)
  53. print(z)
  54. print("===========列表============")
  55. x=torch.rand(5,4) # 创建一个3*2的矩阵,并随机赋值
  56. print(x[:,0]) #打印全部行,但只取第一列
  57. print(x[0,:]) #打印全部列,但只取第一行
  58. print(x[0,0]) #打印i=0 j=0的元素
  59. print(x[1,1].item()) #如果只取一个元素值,则可以取他的真实值
  60. print(x)
  61. print("===========view可以resize tensor============")
  62. x=torch.rand(5,4)
  63. y=x.view(20) #返回一个新的张量,这个是返回一个1行的20个元素的张量
  64. print(y)
  65. y=x.view(-1,10)
  66. print(y) # 这个是返回2行,每行10个,他做了自动适配
  67. print(y.size())#输出size
  68. #print(x.view(-1,7)) # 这个自动适配不了,因为不能被7整除
  69. print("===========numpy numpy只能在cpu上使用,不能在gpu上使用============")
  70. a=torch.ones(5) #行向量,值是1,元素是5
  71. b=a.numpy() #返回 numpy.ndarray类型的numpy下的张量,相当于转了类型,用于计算,该函数有参数 默认是false,表示使用cpu
  72. print(b,type(b))
  73. #这里虽然a转了类型到b,但b和a是对象封装,引用地址一样 所以当我们给a+1时,b也会+1
  74. a.add_(1)
  75. print(a)
  76. print(b)#虽然a b类型不一样,但值都改变了
  77. print("===========从numpy.ndarray转成tensor张量的方式============")
  78. a = np.ones(5) #行向量 5元素 值是1
  79. b =torch.from_numpy(a) #numpy的ndarray转tensor 同样是装箱拆箱 修改a的值 b也会变
  80. a+=1
  81. print(b)
  82. print(a)
  83. print("===========gpu============")
  84. if(torch.cuda.is_available()):
  85. #CUDA 是指 NVIDIA 的并行计算平台和编程模型,它利用图形处理单元 (GPU) 的处理能力来加速计算密集型任务
  86. device =torch.device("cuda") #获取cuda驱动
  87. x=torch.ones(5,device=device)#创建时指定了使用cpu的内存
  88. y=torch.ones(5)#创建时使用cpu的内存
  89. y=y.to(device)#将y转到gpu
  90. z=x+y #这个操作是在gpu的内存上进行了
  91. #z.numpy()#这个不能执行,因为z在gpu的内存上
  92. z =z.to("cpu") #转回到cpu
  93. else:
  94. print("this is cpu")

requires_grad例子。
这里要点高数基础。
首先是导数,这个大家忘了的可以百度一下。
偏导数:这个就是f(x,y)=x+y这样的函数求导,只是对x求导时,把y当常量c,反之亦然。

  1. print("===========requires_grad 例子1============")
  2. #使用自动微分(autograd)
  3. x=torch.ones(5,requires_grad=True) #默认requires_grad是false 1,计算梯度:requires_grad 是一个布尔参数,用于指定一个张量是否需要计算梯度 2,自动求导:使用 requires_grad=True 的张量进行的所有操作都会被记录,以便稍后使用 backward() 方法进行自动求导。
  4. print(x)
  5. # 对张量进行一些操作
  6. y = x + 2
  7. print(y)
  8. # 再进行一些操作
  9. z = y * y * 3
  10. print("======分割线1=====")
  11. print(z)
  12. out = z.mean() #是一个张量操作,它计算张量 z 的所有元素的平均值。 看做f(x)=(x1+x2+x3+x4)/4 然后对每个x求偏导,在把值带回去
  13. print("======分割线2=====")
  14. print(out)
  15. # 进行反向传播,计算梯度
  16. out.backward()
  17. print("======分割线3=====")
  18. print(x.grad) # 输出x的梯度
  19. print("===========requires_grad 例子2============")
  20. # 创建一个张量,并指定需要计算梯度
  21. x = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)
  22. # 定义一个标量函数 平方在求和 相当于函数 f()= x12+ x22,+ x32
  23. y = x.pow(2).sum()
  24. # 进行反向传播,计算梯度 x`的梯度,它对应于函数 f(x1,x2,x3)= x12+ x22+ x32, 三个偏导数就是 2x1,2x2,2x3,带入tensor的值 即'[2x1,2x2,2x3]
  25. y.backward()
  26. # 输出 x 的梯度
  27. print(x.grad) # 输出 tensor([2., 4., 6.])
  28. print("===========requires_grad 例子3============")
  29. # 创建一个张量,并指定需要计算梯度
  30. x = torch.tensor([[1.0, 2.0],[4.0, 5.0]], requires_grad=True)
  31. # 定义一个标量函数 平方在求和 相当于函数 f()= x12+ x22+ x32+ x42
  32. y = x.pow(2).sum()
  33. # 进行反向传播,计算梯度 x`的梯度,这里是2*2矩阵,但计算的时候,就按元素个数算x,没有行列ij。
  34. # 它对应于函数 f(x1,x2,x3,x4)= x12+ x22,+ x32+ x42, 四个偏导数就是 2x1,2x2,2x3,2x4,带入tensor的值 即'[2x1,2x2,2x4,2x5]
  35. y.backward()
  36. # 输出 x 的梯度
  37. print(x.grad) # 输出 tensor([[2, 4][8,10]])

基础学习就先到这。


注:此文章为原创,任何形式的转载都请联系作者获得授权并注明出处!



若您觉得这篇文章还不错,请点击下方的【推荐】,非常感谢!

https://www.cnblogs.com/kiba/p/18346596

原文链接:https://www.cnblogs.com/kiba/p/18346596

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号