《深度学习的数学——使用Python语言》6. 线性代数
线性代数在深度学习中是解决多维数学对象计算问题的核心工具。这些数学对象包括标量、向量、矩阵和张量,借助它们可以高效地对数据进行操作和建模。以下将详细介绍这些数学对象及其在深度学习中的典型用途。# 数学对象概述
## 标量
标量是最简单的数学对象,通常表示单个数值变量,是构成高阶数据结构的基础。例如:
```python
import numpy as np
x = 42# 标量
print(x)
```
## 向量
向量由标量组成,表示为一维数组。根据表示方式不同,可以分为行向量和列向量。在深度学习中,向量常用于描述样本的多个特征。例如:
```python
import numpy as np
x = np.array()
print(x)
print(x.shape)
print(x.reshape((3,1)))
```
在深度学习和机器学习中,向量的各个成员之间通常用于描述样本不同的特征。模型可以通过输入的这些特征量得到有用的输出,如分类标签或者是回归值。
## 矩阵
矩阵是由数字构成的二维数组。在矩阵中,各个元素所处的行数和列数为元素的下标。在python语言中,数组的下标是从0开始的,而在matlab语言中,数组的下标从1开始,不同语言的特点不同,需要注意。此外,在矩阵中,元素的位置由行和列索引确定。
```python
import numpy as np
A = np.arange(12).reshape((3,4))
print(A)
print(A)
print(A)
```
此外,我们可以看到除开头可结尾的[]外,每一行的数据都由一组[]包括着,这说明numpy将二维数组当作行向量来对待,其中每一个元素也为一个行向量。
## 张量
张量是更高维的数组,超越矩阵的二维结构。例如,在计算机视觉中,RGB图像可以表示为形状为c*h*w的三维张量,其中c表示通道数,h和w分别表示图像的高度和宽度。加上批量(batch size)维度后,形成四维张量。然而,不同框架可能对张量的维度顺序有不同约定,例如 ONNX 通常使用h*w*c。示例代码如下:
```python
import numpy as np
t = np.arange(36).reshape(3,3,4)
print(t)
```
在计算机视觉模型推理阶段,尽管我们通常输入的是一张三维图片,但模型的输入通常还需要一个最高维度的批量大小(通常默认为1)。那么,如何对输入进行转换,将其扩展为四维数据呢?以下介绍两种方法,通过增加一个大小为1的维度来实现这一转换。
```python
t = np.arange(36).reshape(3,3,4)
w = t
w2 = np.expand_dims(t,axis=0)
print(w.shape)
print(w2.shape)
print(w)
print(w2)
```
# 代数运算
本节主要设计向量和矩阵的计算,
## 数组运算
标量运算中的加减乘除,以及指数等初等运算都适用于数组运算。当两个运算数组形状相同时,可以简单理解为对应位置上的元素进行运算。
```python
import numpy as np
a = np.array([,])
b = np.array([,])
print(a+b)
print(a-b)
print(a*b)
print(a/b)
```
当两个数组形状不匹配时,就会涉及到NumPy的广播机制。举个例子,假设有三个人,第一个人分别拥有1个梨、2个苹果、3个香蕉和4个橘子;第二个人各类水果的数量是第一个人的两倍,第三个人则是第一个人的三倍。我们可以利用NumPy的广播机制,轻松地表示出每个人每种水果的拥有量。
```python
import numpy as np
a = np.array()
b = np.array([,,])
print(a*b)
```
其中行为4种水果,列为3个人。
## 向量运算
### 单位向量
将一个向量中的各个元素除以向量的模长,我们就能得到一个方向不变且模值为1的单位向量。
```python
import numpy as np
v = np.array()
print(v / np.sqrt((v*v).sum()))
print(v / np.sqrt(np.dot(v,v)))
```
我们既可以使用各元素平方求和开根号的方式来求得向量的模长,也可以使用内积的方式来得到。
### 内积
向量内积是最基础的向量运算,其计算方法如下
向量内积的结果是一个标量。向量内积满足交换律和分配律,但是不满足结合律。且内积为0的两个向量相互正交,它们之间的夹角为90°。
### 外积
与向量内积不同,两个向量的外积得到的是一个矩阵。个人理解,可以用前面的广播机制来理解它。向量的外积不要求两个向量具有相同数量的元素
```python
a = np.array()
b = np.array()
print(np.outer(a,b))
```
### 叉积
叉积是定义在三维空间中的,两个向量叉积的结果是一个新的向量,这个向量垂直于这两个向量构成的平面。新向量的方向服从右手法则。
```python
import numpy as np
a = np.array()
b = np.array()
c = np.array()
print(np.cross(a,b))
print(np.cross(a,c))
```
# 总结
线性代数是深度学习的基础,其数学对象和运算在数据表示和模型计算中无处不在。掌握这些基本概念和操作,将为理解和优化深度学习模型提供有力支持。 <p>机器学习的数据处理基本上都是处理的代数</p>
wangerxian 发表于 2025-1-7 09:07
机器学习的数据处理基本上都是处理的代数
<p>所以补充一些线性代数的知识还是很有必要的<img height="48" src="https://bbs.eeworld.com.cn/static/editor/plugins/hkemoji/sticker/facebook/wanwan58.gif" width="54" /></p>
waterman 发表于 2025-1-7 10:47
所以补充一些线性代数的知识还是很有必要的
<p>水哥不水!。。。。。。。。。。。。。确实都是代数<img height="48" src="https://bbs.eeworld.com.cn/static/editor/plugins/hkemoji/sticker/facebook/loveliness.gif" width="48" /></p>
页:
[1]