August 2, 2023

ML3 - Algebra mini-course

Irfan Mas'udi
@irfanmasoudi

Selayang pandang

Sebelum masuk ke materi utama, saya rasa kita perlu belajar materi-materi algebra yang berkaitan dengan machine learning. Saya coba merangkum beberapa topik yang menurut saya akan berguna untuk memahami materi dan konsep machine learning.

Vectors

Vector adalah list dari beberapa bilangan yang kita sebut dengan element. Dimensi dari vektor adalah rows x columns (e.g 5x1, column vector). Column vector, v=[1209.3.01]v = \begin{bmatrix} 1\\ -2\\ 0\\ 9.3\\-.01\end{bmatrix} dan transpose dari column vector adalah row vector, vT=[1209.3.01]v^{T} = \begin{bmatrix} 1 & -2 & 0 & 9.3 & -.01 \end{bmatrix}.

Matrices

Matriks adalah susunan bilangan berdasarkan rows dan column, dua dimensi. A=[aij]m×n=[a11a12a1na21a22a2nam1amn]A=[a_{ij}]_{m \times n}=\begin{bmatrix} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \dots & \dots & \dots & \dots \\ a_{m1} & \dots & \dots & a_{mn} \end{bmatrix}, m adalah row dan n adalah column.

Interpretasi vector

Misal kita memiliki v=[v1v2]v = \begin{bmatrix} v_{1}\\ v_{2} \end{bmatrix}, magnitude dari matrix v, v=v12+v22\lVert v \rVert = \sqrt{v_{1}^{2}+v_{2}^{2}} adalah ecludean distance dari origin ke titik v. Orientation dari v, θ=tan1(v1v2)\theta = tan^{-1} \lparen \dfrac{v_{1}}{v_{2}} \rparen. Jika v=1\lVert v \rVert = 1, maka v adalah unit vector, atau biasa disebut dengan versor atau unit norm, yang dapat kita gunakan sebagai definisi arah dari vektor. v=vv=[v1/vv2/v]\overrightarrow{v}=\dfrac{v}{\lVert v \rVert} = \begin{bmatrix} v_{1}/\lVert v \rVert\\ v_{2}/\lVert v \rVert \end{bmatrix}.

Vector dot dan cross product

Vector dot product sering kita sebut dengan inner product atau scalar product. Dot/inner product dari vector berbentuk skalar.

v=[v1v2],w=[w1w2]v = \begin{bmatrix} v_{1}\\ v_{2} \end{bmatrix}, w = \begin{bmatrix} w_{1}\\ w_{2} \end{bmatrix}. Inner product v.w=[v1v2].[w1w2]=v1w1+v2w2=v.wcosαv.w = \begin{bmatrix} v_{1}\\ v_{2} \end{bmatrix}.\begin{bmatrix} w_{1}\\ w_{2} \end{bmatrix} = v_{1}w_{1} + v_{2}w_{2} = \lVert v \rVert . \lVert w \rVert \cos \alpha. Dot product kita gunakan untuk mengetahui apakah vector v dan w orthogonal/tegak lurus atau tidak. Jika v    wv \; \bot \; w tegak lurus maka v.w=v.wcosα=0v.w = \lVert v \rVert . \lVert w \rVert \cos \alpha = 0.

Vector cross product dari vector berbentuk vektor. u=v×wu=v \times w, magnitude u=v×w=v.wsinα\lVert u \rVert=\lVert v \times w \rVert = \lVert v \rVert . \lVert w \rVert \sin \alpha. Orientasi u    v=u.v(v×w).v=0,  u    w=u.w(v×w).w=0u \; \bot \; v = u . v \Rightarrow \lparen v \times w \rparen . v = 0, \; u \; \bot \; w = u . w \Rightarrow \lparen v \times w \rparen . w = 0 Jika vw,  v×w=v.wsinα=0v \parallel w, \; v \times w = \lVert v \rVert . \lVert w \rVert \sin \alpha = 0 maka vector v dan w paralel.

Matrix Properties

Jika A=[aij]m×nA=[a_{ij}]_{m \times n} maka transpose dari matrix A, AT=[aji]n×mA^{T}=[a_{ji}]_{n \times m}. Hal lain yang juga penting kita ketahui, (A+B)T=AT+BT,(AB)T=BT+AT(A + B)^{T}=A^{T}+B^{T}, \: (AB)^{T}=B^{T}+A^{T}. Jika A=ATA=A^{T} maka AA adalah symmetric matrix. Commutativity dan associativity matrix, ABBA,  A(BC)=(AB)CAB \not = BA, \; A(BC) = (AB)C

Matrix Trace dan Determinant

Determinant dari suatu matrix dapat dihitung jika matrix AA adalah square matrix. A=[aij]n×n;  det(A)=j=1naijAij;  i=1,,nA=[a_{ij}]_{n \times n};\; det(A)=\displaystyle\sum_{j=1}^n a_{ij}A_{ij}; \;i=1,\dots,n. Sedangkan Trace matrix AA, A=[aij]n×n;  tr[A]=j=1najjA=[a_{ij}]_{n \times n};\;tr[A]=\displaystyle\sum_{j=1}^n a_{jj}

Matrix Inverse

Matrix inverse adalah proprerti matrix yang hanya mungkin dimiliki oleh square matrix. A=[aij]n×nA=[a_{ij}]_{n \times n}. AA1=A1A=IAA^{-1}=A^{-1}A=I dimana II adalah identity matrix. A1=[a11a12a21a22]1=1det(A)[a22a12a21a11],  A^{-1}=\begin{bmatrix}a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix}^{-1} = \dfrac{1}{det(A)}\begin{bmatrix}a_{22} & -a_{12} \\ -a_{21} & a_{11} \end{bmatrix},\; dimana det(A)0det(A) \not = 0. Jadi jika det(A)=0det(A)=0 maka matrix AA tidak memiliki inverse.

Linear Independence

Vector xiRnx_{i} \in \Reals^{n} dikatakan linearly independent jika vektor xix_{i} tidak dapat dihasilkan dari linear combination dari vektor lain. Misal, x1=[12],  x2=[24]x_{1}=\begin{bmatrix}1\\2\end{bmatrix}, \; x_{2}=\begin{bmatrix}-2\\-4\end{bmatrix} jika c=[11/2]c=\begin{bmatrix}1\\1/2\end{bmatrix} maka c1x1+c2x2=0c_{1}x_{1}+c_{2}x_{2}=0. Sehingga x1x_{1} dan x2x_{2} not linearly independent. Jika A=[x1x2]=[1224]A=\begin{bmatrix}x_{1}&x_{2}\end{bmatrix}=\begin{bmatrix}1&-2\\2&-4\end{bmatrix} maka det(A)=0det(A) = 0. Sehingga jika kita ingin memiliki A1A^{-1} maka, setiap column dari matrix AA harus liniearly independent.

Span

span(x1,x2,,xi)={c1x1+c2x2++cixi    c1,c2,,ciR}span(x_{1},x_{2}, \dots ,x_{i})=\lbrace c_{1}x_{1}+c_{2}x_{2}+ \dots + c_{i}x_{i} \; \vert \; c_{1}, c{2}, \dots ,c_{i} \in \Reals \rbrace. Setiap titik pada space, misal ww dapat kita representasikan dengan w=c1v1+c2v2,  w=[w1w2]=w1v1+w2v2w=c_{1}v_{1}+c_{2}v_{2}, \; w = \begin{bmatrix}w_{1}\\w_{2}\end{bmatrix}=w_{1}v_{1}+w_{2}v_{2}

dan v1v_{1}, v2v_{2} linearly independent, sehingga dapat kita gunakan sebagai basis vector. Karena v1v2v_{1} \bot v_{2} dan memiliki magnitude 1 unit vector, maka juga disebut dengan orthonormal basis.

Eigenvalue dan Eigenvector

Eigenvalue λ\lambda dan Eigenvector uu memenuhi Ax=λuAx=\lambda u dimana AA adalah square matrix. Mengkalikan uu dengan AA dengan skala λ\lambda.

Ax=λu=(AλI)u=0Ax=\lambda u = (A- \lambda I)u=0 dimana hanya memiliki solusi jika det(AλI)=0det(A- \lambda I)=0.

References

[1] Machine Learning Lecture Prof. Matteo Matteucci
[2] Basic Linear Algebra