[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)


contents

  • basic's basic(part 1)
    • 写在开头
    • numpy 操作
      • 引入
      • 建立一维数组和属性操作
      • 二维数组和属性操作
      • numpy的一些函数
        • np.zeros
        • np.ones
        • np.identity
        • 随机数
      • 小任务
      • 数组切片
      • np.arange
      • 基本运算 - p1
      • np.dtype
      • 基本运算 - p2
      • axis和np.sum
    • matplotlib 简单操作
      • 画函数
    • 写在最后

basic’s basic(part 1) 写在开头 作为人工智能大学牲,我们在学习以Python为主流编程语言的人工智能框架时,肯定得知道一些数据处理的东东是怎么用的(恼。下面我们将学习非常非常著名的numpy。
numpy 操作 引入
你也不想自己不会导入库被别人知道吧?
  • 导入numpy库
import numpy as np

建立一维数组和属性操作
和Python的原生数组比较类似,不过因为numpy里面数组的功能更加强大,也有更多的乱七八糟的操作,在dl中我们习惯使用numpy定义的数组。
  • 建立一个一维数组a初始化为[4,5,6]
  • 输出a的类型
  • 输出a各维度的大小
  • 输出a的第一个元素大小
对于第一个问题,numpy有简单的定义方法:
a = np.array([4,5,6])

a的类型使用简单的Python中用于判断类型的type函数即可:
print(type(a))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

维度大小常用np的shape函数,它返回一个元组告知数组的形状(以后用处比较大,用来参考着调整要用的数据的形状),有两种方法:
print(np.shape(a)) #print(a.shape) 也可

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

对于输出元素值的问题,现阶段和原生的Python数组是一样的,即:
print(a[0])

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

二维数组和属性操作
二维数组无非就是多了一个维度,且数组下标访问与原生稍微出现一定变化,当然原生的表示方法也是可以的。
  • 建立一个二维数组b,初始化为[[4, 5, 6], [1, 2, 3]]
  • 输出各维度大小
  • 输出b(0, 0), b(0, 1), b(1, 1)
和一维数组比较类似,前两题代码如下:
b = np.array([[4, 5, 6], [1, 2, 3]]) print(b.shape)

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

对于下标的访问,如下:
print(b[0, 0], b[0, 1], b[1, 1], sep = ',') #print(b[0][0], b[0][1], b[1][1], sep = ',') 也可

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

numpy的一些函数
np.zeros np.zeros用于创建全为0的矩阵,其调用和常用函数参数如下:
np.zeros(shape, dtype=float, order=‘C’, like=None)
参数名 默认值 定义
shape 创建矩阵的形状大小,任意维度
dtype float 矩阵中的数据类型
order ‘C’ 确定是行优先存储(C)还是列优先存储(F)
  • 建立一个全0矩阵a,大小为3x3,类型为整数
a = np.zeros((3, 3), dtype = int)

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

np.ones np.ones(shape,dtype=None,order=‘C’,*,like=None)
用法和np.zeros相同
  • 建立一个全1矩阵b,大小为4x5
b = np.ones((4, 4))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

np.identity np.identity(n,dtype=None,*,like=None)
参数名 默认值 定义
n 创建矩阵的形状大小,任意维度nxn
dtype float 矩阵中的数据类型
  • 建立一个单位矩阵c,大小为4x4
c = np.identity(4)

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

随机数 关于随机数在numpy.random中,有np.random.rand和np.random.randn
  • 生成一个随机数矩阵d,大小为3x2
d = np.random.randn(3, 2) #np.random.rand用法相同

[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

小任务
  • 建立一个数组a,值为[[1,2,3,4],[5,6,7,8],[9,10,11,12]]
  • 打印a
  • 输出下标为(2,3), (0,0)这两个元素的值
代码如下:
a = np.array([[1,2,3,4],[5,6,7,8],[9,10,11,12]]) print(a) print(a[2][3],a[0][0],sep=',')

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

数组切片
数组切片按照维度顺序,用冒号来代表起始位置、结束位置和步长(不加的时候步长为1)
  • 把上一题的a数组的0到1行、2到3列,放到b里面
  • 输出b
  • 输出b的(0, 0)元素值
b = a[0:2,2:4] print(b[0][0])

输出1:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

输出2:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 把前面的a的最后两行所有元素放到c中
  • 输出c
  • 输出c中第一行最后一个元素
代码如下:
c = a[-2:] print(c) print(c[-1])

输出1:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

输出2:
[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 建立数组a,初始化a为[[1, 2], [3, 4], [5, 6]],输出 (0,0)(1,1)(2,0)这三个元素
a = np.array([[1, 2],[3, 4],[5, 6]]) print(a[[0, 1, 2], [0, 1, 0]])

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

np.arange
函数返回一个有终点和起点的固定步长的排列
  • 建立矩阵a ,初始化为[[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]],输出(0,0),(1,2),(2,0),(3,1)
a = np.array([[1, 2, 3],[4, 5, 6],[7, 8, 9],[10, 11, 12]]) b = np.array([0, 2, 0, 1]) print(a[np.arange(4), b])

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

基本运算 - p1
numpy中的运算直接使用+=、-=、*=、/=就可以,其操作为对等号左边的所有元素进行数字的加减乘除操作
  • 对9中输出的那四个元素,每个都加上10,然后重新输出矩阵a.(提示: a[np.arange(4), b] += 10 )
a[np.arange(4), b] += 10 print(a)

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

np.dtype
显示数据类型,非常方便的函数。
  • 执行 x = np.array([1, 2]),然后输出 x 的数据类型
x = np.array([1, 2]) print(x.dtype)

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 执行 x = np.array([1.0, 2.0]) ,然后输出 x 的数据类类型
x = np.array([1.0, 2.0]) print(x.dtype)

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

基本运算 - p2
  • 执行 x = np.array([[1, 2], [3, 4]], dtype=np.float64) ,y = np.array([[5, 6], [7, 8]], dtype=np.float64),然后输出 x+y ,和 np.add(x,y)
当两个np.array相运算时,对于每一位进行分别的运算
x = np.array([[1, 2], [3, 4]], dtype=np.float64) y = np.array([[5, 6], [7, 8]], dtype=np.float64) print(x + y) print(np.add(x, y))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 利用 13题目中的x,y 输出 x-y 和 np.subtract(x,y)
print(x - y) print(np.subtract(x, y))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 利用13题目中的x,y 输出 x*y ,和 np.multiply(x, y) 还有 np.dot(x,y),比较差异。然后自己换一个不是方阵的试试。
np.dot为矩阵乘法,需要注意矩阵必须要满足线性代数中关于举证运算的规则,即第一个矩阵的第二维需要和第二个矩阵的第一维相同
print(x * y) print(np.multiply(x, y)) print(np.dot(x, y))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

换成不是方阵的矩阵后:
w = np.array([[4],[2]]) print(x * w) print(np.multiply(x, w)) print(np.dot(x, w))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 利用13题目中的x, y, 输出x / y.(提示 : 使用函数np.divide())
print(x / y) print(np.divide(x, y))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 利用13题目中的x,输出 x的 开方。(提示: 使用函数 np.sqrt() )
print(np.sqrt(x))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 利用13题目中的x, y, 执行print(x.dot(y))和print(np.dot(x, y))
print(x.dot(y)) print(np.dot(x, y))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

axis和np.sum
np中有运算方向的概念,其中运算方向一般由axis进行决定,一般来说axis=0代表列运算,axis=1代表行运算。其实有个更好记忆且更加一般的定义:axis后的数字代表了该array中的维度,当axis=0时候就是将每一行(第一维)进行前面介绍的运算或者处理,axis=1时是将每一列(第二维),以此类推。
np.sum函数用于求和,当不指定行列时,计算所有元素的和,否则按照指定行列进行运算。
  • 利用13题目中的 x,进行求和。提示:输出三种求和 (1)print(np.sum(x)): (2)print(np.sum(x,axis =0 )); (3)print(np.sum(x,axis = 1))
print(np.sum(x)) print(np.sum(x, axis=0)) print(np.sum(x, axis=1))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 利用13题目中的 x,进行求平均数(提示:输出三种平均数(1)print(np.mean(x)) (2)print(np.mean(x,axis = 0))(3) print(np.mean(x,axis =1)))
print(np.mean(x)) print(np.mean(x, axis=0)) print(np.mean(x, axis=1))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 利用13题目中的x,对x 进行矩阵转置,然后输出转置后的结果,(提示: x.T 表示对 x 的转置)
转置有两种方法,直接.T和np.transpose,两种效果是一样的。
print(x.T) # print(np.transpose(x)) 也可

输出: [DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 利用13题目中的x,求e的指数(提示: 函数 np.exp())
print(np.exp(x))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 利用13题目中的 x,求值最大的下标(提示(1)print(np.argmax(x)) ,(2) print(np.argmax(x, axis =0))(3)print(np.argmax(x),axis =1))
print(np.argmax(x)) print(np.argmax(x, axis=0)) print(np.argmax(x, axis=1))

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

matplotlib 简单操作 matplotlib是非常强大的图形绘制库,很多科学计算的可视化都是基于matplotlib的,本章简要介绍其一些基本用法。
import matplotlib pyplot as plt

画函数
  • 画图,y=x*x 其中 x = np.arange(0, 100, 0.1) (提示这里用到 matplotlib.pyplot 库)
x = np.arange(0, 100, 0.1) y = x * x plt.plot(x, y) plt.show()

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

  • 画图。画正弦函数和余弦函数, x = np.arange(0, 3 * np.pi, 0.1)(提示:这里用到 np.sin() np.cos() 函数和 matplotlib.pyplot 库)
x = np.arange(0, 3 * np.pi, 0.1) y1 = np.sin(x) y2 = np.cos(x) plt.plot(x, y1) plt.plot(x, y2) plt.show()

输出:[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)
文章图片

写在最后 【[DL]神经网络与深度学习|[2022-08-29]神经网络与深度学习第0章-basic‘s basic(part 1)】这章只是basic’s basic,是介绍并熟悉常用的库及其使用方法,你学会了吗

    推荐阅读