向量
Abstract
向量、矩阵等线性代数概念对于数据科学和机器学习至关重要。
在机器学习中,数据几乎都是以矩阵形式存储、运算。毫不夸张地说,没有线性代数就没有现代计算机运算。
定义
若干数字排成一行或一列,并且用中括号括起来,这样所得到的数组叫做向量 (vector)。
向量的本质是数集 (manifold)。
行向量、列向量
中括号中数字排成一行的叫行向量 (row vector)
\[ \begin{bmatrix} x_1 & x_2 & \cdots & x_n \\ \end{bmatrix}_{1 \times n} (x_1, x_2, \dots, x_n \in \mathbb{C}) \]
数字排成一列的叫列向量 (column vector)
\[ \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix}_{n \times 1} (x_1, x_2, \dots, x_n \in \mathbb{C}) \]
向量的表示
一般用斜体加粗的小写字母来表示向量,如
\[ \mathbf{v} = \begin{bmatrix} x_1 & x_2 & \cdots & x_n \\ \end{bmatrix}_{1 \times n} (x_1, x_2, \dots, x_n \in \mathbb{C}) \]
其中,下角标代表向量元素的序数;
转置
行向量转置 (transpose) 得到列向量。用上标 \({T}\) 来表示向量的转置,则
\[ \begin{bmatrix} x_1 & x_2 & \cdots & x_n \\ \end{bmatrix}_{1 \times n}^{T} = \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix}_{n \times 1} (x_1, x_2, \dots, x_n \in \mathbb{C}) \]
同理,列向量转置得到行向量
\[ \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix}_{n \times 1}^{T} = \begin{bmatrix} x_1 & x_2 & \cdots & x_n \\ \end{bmatrix}_{1 \times n} (x_1, x_2, \dots, x_n \in \mathbb{C}) \]
转置本质上是镜像,镜像轴从第 1 行,第 1 列元素出发,朝向右下方 45°。
Info
向量与矩阵 (matrix) 的转置基本一致。
向量的加法
行向量只能与行向量相加,其相加后的每一个元素都等于相加的两个向量对应的元素和。
例如
\[ \begin{bmatrix} 1 & 2 & 3 \\ \end{bmatrix}_{1 \times 3} + \begin{bmatrix} 4 & 5 \\ \end{bmatrix}_{1 \times 2} = \begin{bmatrix} 5 & 7 & 3 \\ \end{bmatrix}_{1 \times 3} \]
同理,列向量只能与列向量相加
\[ \begin{bmatrix} 2 \\ 3 \\ 5 \end{bmatrix}_{3 \times 1} + \begin{bmatrix} 7 \\ 8 \end{bmatrix}_{2 \times 1} = \begin{bmatrix} 9 \\ 11 \\ 5 \end{bmatrix}_{3 \times 1} \]
其他四则运算与加法基本一致,故不在此赘述。