일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- Hash
- Trie
- String
- Stored Procedure
- Dijkstra
- 스토어드 프로시저
- 그래프
- binary search
- Two Points
- DP
- two pointer
- 다익스트라
- 이진탐색
- Brute Force
- SQL
- MYSQL
- union find
- Today
- Total
codingfarm
선형변환의 소개 본문
우선 함수에 관련된 몇가지 기본적인 개념을 알아보겠다.
$\mathbb R^n$에서 $\mathbb R^m$으로의 변환(transform) $T$는 $\mathbb R^n$에 속하는 벡터 $v$를 $\mathbb R^m$에 속하는 $T(V)$에 대응 하는 규칙이다.
$T$의 정의역(domain)은 $\mathbb R^n$이고
$T$의 공역(codomain)은 $\mathbb R^m$ 이며
이를 $T : \mathbb R^n \rightarrow \mathbb R^m$ 으로 나타낸다.
$T$아래에서 $V$의 상(image)은 $T$의 정의역의 벡터 $v$에 대해 공역의 벡터 $T(V)$를 지칭한다.
$T$의 치역(range)은 $v$가 $T$의 정의역에 있을때 가능한 모든 상의 집합 $T(v)$를 지칭한다.
예를 통해 알아보겠다.
$$A = \begin{bmatrix}1 & 0 \\ 2 & -1 \\ 3 & 4 \end{bmatrix} , v = \begin{bmatrix} 1 \\ -1 \end{bmatrix}$$
이면
$$Av = \begin{bmatrix}1 & 0 \\ 2 & -1 \\ 3 & 4 \end{bmatrix} \begin{bmatrix} 1 \\ -1 \end{bmatrix} = \begin{bmatrix} 1 \\ 3\\ -1 \end{bmatrix}$$
이것은 $A$가 $v$를 $w = \begin{bmatrix} 1 \\ 3 \\ -1 \end{bmatrix}$ 로 변화시킴을 보여준다.
일반적으로 표현하면
$$\begin{bmatrix}1 & 0 \\ 2 & -1 \\ 3 & 4 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} x \\ 2x - y\\ 3x + 4y \end{bmatrix}$$
위는 $A$를 통해 $\mathbb R^2$에 속하는 임의의 벡터 $\begin{bmatrix} x\\ y \end{bmatrix}$가 $\mathbb R^3$에 속하는 벡터 $\begin{bmatrix} x \\ 2x - y \\ 3x + 4y \end{bmatrix}$로 어떻게 변하는가를 보여준다.
이 변환을 $T_A$로 표현하면
$$T_A \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} x \\ 2x-y \\ 3x + 4y \end{bmatrix}$$
위 예에서
$T_A$의 정의역은 $\mathbb R^2$이고
$T_A$의 공역은 $\mathbb R^3$이므로
$T_A : \mathbb R^2 \rightarrow \mathbb R^3$으로 표현한다.
$V = \begin{bmatrix} 1 \\ -1 \end{bmatrix}$의 상은 $w = T_A(V) = \begin{bmatrix} 1 \\ 3 \\ -1 \end{bmatrix}$
$T_A$의 치역은 $T_A\begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} x \\ 2x - y \\ 3x + 4y \end{bmatrix} = x \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} + y \begin{bmatrix} 0 \\ -1 \\ 4 \end{bmatrix}$ 의 형태이다.
즉 $T$의 치역은 $A$의 열공간이다.
기하학적으로 $T_A$의 치역은 $A$의 열벡터에 의해 주어진 방향벡터를 갖는 $\mathbb R^3$의 원점을 지나는 평면을 의미 한다.
$T_A$의 치역은 $T_A$의 공역에 속한다.
선형변환
여기서는 행렬변환에 기반으로 둔 선형변환에 대해 알아보겠다.
보다 일반화된 정의는 추후 배울것이다.
선형변환은 아래 2가지 조건을 만족한다.
1. $\mathbb R^n$에 속하는 임의의 $u,v$에 대하여 $T(u+v) = T(u) + T(v)$이다.
2. $\mathbb R^n$에 속하는 임의의 $u$와 스칼라 $c$에 대하여 $T(cu) = cT(u)$ 이다.
위 조건을 만족하는 변환 $T : \mathbb R^n \rightarrow \mathbb R^m$을 선형변환(linear transformation)이라고 한다.
즉, $\mathbb R^n$에 속하는 임의의 $v_1, v_2$와 스칼라 $c_1, c_2$에 대하여
$$T(c_1 v_1 + c_2 v_2 ) = c_1 T(v_1) + c_2 T(v_2)$$
이면, $T : \mathbb R^n \rightarrow \mathbb R^m$은 선형변환이다.
주어진 $T$로부터 행렬 $A$를 구하는것은 간단하다.
예제 5.55의 경우
$$T \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} x \\ 2x - y \\ 3x + 4y \end{bmatrix} = x \begin{bmatrix} 1 \\ 2\\ 3 \end{bmatrix} + y \begin{bmatrix} 0 \\ -1 \\ 4 \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 2 & -1 \\ 3 & 4 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix}$$
이므로 $T=T_A$이다. 여기서 $A = \begin{bmatrix} 1 & 0 \\ 2 & -1 \\ 3 & 4 \end{bmatrix}$ 이다.
$A$가 $m \times n$ 행렬이라고 하자.
$$T_A(x) = Ax,\;\;\; x \in \mathbb R^n$$
로 정의되는 행렬변환 $T_A : \mathbb R^n \rightarrow \mathbb R^m$은 선형변환이다.
증명
$u$와 $v$는 $\mathbb R^n$에 속하는 임의의 벡터이고 $c$가 스칼라이면
$$T_A(u+v) = A(u+v) = Au + Av = T_A(u) + T_A(v)$$
이고
$$T_A(cv) = A(cv) = c(Av) = cT_A(v)$$
이다. 그러므로 행렬변환 $T_A$는 선형변환이다.
$T : \mathbb R^n \rightarrow \mathbb R^m$이 선형변환이면, $T$는 행렬변환이다. 다시말하면 $m \times n$행렬
$$A = [T(e_1) | T(e_2) | \cdots | T(e_n)]$$
에 대하여, $T = T_A$를 만족한다.
이때 행렬 $A$를 선형변환 $T$의 표준행렬(standard matrix)이라고 부른다.
증명
만일 하나의 행렬에 표준 기저 벡터를 곱하면 행렬의 열벡터를 얻게 된다. 가령
$$\begin{bmatrix} a & b \\ c & d \\ e & f \end{bmatrix} \begin{bmatrix} 1 \\ 0 \end{bmatrix} = \begin{bmatrix} a \\ c \\ e\end{bmatrix},\;\;\;\;\;\;\; \begin{bmatrix} a & b \\ c & d \\ e & f \end{bmatrix} \begin{bmatrix} 0 \\ 1 \end{bmatrix} = \begin{bmatrix} b \\ d\\ f \end{bmatrix}$$
이다. 위 개념을 이용하여 $\mathbb R^n$에서 $\mathbb R^m$으로의 모든 선형변환은 행렬변환이 됨을 보일 수 있다.
$e_1, e_2, \cdots, e_n$이 $\mathbb R^n$의 표준기저 벡터일 때, $x$가 $\mathbb R^n$의 임의의 벡터이면 $x = x_1e_1 + x_2e_2 + \cdots + x_n e_n$으로 표현된다. 여기서, $x_i$는 $x$의 성분이다. 또한 $T(e_1),T(e_2), \cdots, T(e_n)$은 $\mathbb R^m$의 (열)벡터들이다.
$A = [T(e_1) | T(e_2) | \cdots | T(e_n)]$를 이들 벡터를 열벡터로 갖는 $m \times n$행렬이라 두면
$$\begin{align*}
T(x) &= T(x_1e_1 + x_2e_2 + \cdots + x_n e_n) \\
&=x_1T(e_1) + x_2 T(e_2) + \cdots x_n T(e_n) \\
&=\begin{bmatrix} T(e_1) & T(e_2) & \cdots & T(e_n) \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} = Ax
\end{align*}$$
선형변환의 합성
$T : \mathbb R^m \rightarrow \mathbb R^n$과 $S : \mathbb R^n \rightarrow \mathbb R^p$가 선형변환이면
두 변환의 합성을 $S \cdot T$로 나타내고 이 또한 선형변환이다.
$S \cdots T$가 의미를 갖기 위해선 $T$의 공역과 $S$의 정의역이 일치되어야 한다.
합성변환 $S \cdot T$는 $T$의 정의역에서 $S$의 공역으로의 사상이다.
$S$와 $T$가 선형변환이면 $S \cdot T$도 선형변환이다.
$T : \mathbb R^m \rightarrow \mathbb R^n$과 $S : \mathbb R^n \rightarrow \mathbb R^p$ 가 선형변환이면, $S \cdot T : \mathbb R^m \rightarrow \mathbb R^p$도 션형변화니다. 더욱이 이들의 표준행렬은
$$[S \cdot T] = [S][T]$$
로 표현된다.
증명
$[S] = A, ~ [t] =B$ 라 한다. 이때 $A$는 $p \times n$, $b$는 $n \times m$ 행렬이다.
$v$가 $\mathbb R^m$의 한 벡터이면
$$(S \cdot T)(v) = S(T(v)) = S(Bv) = (AB)v $$
즉, 합셩변환의 행렬은 각 표준행렬의 곱이다.
'수학 > 선형대수학' 카테고리의 다른 글
고유값과 고유벡터(Eigenvalues and Eigenvectors) (0) | 2020.07.01 |
---|---|
좌표(coordinate) (0) | 2020.06.13 |
행 사다리꼴 행렬과 기약 행 사다리꼴 행렬 (1) | 2020.05.28 |
기저와 차원, 계수(basis & dimension, rank) (0) | 2020.05.09 |
연립일차방정식의 해 (0) | 2020.05.07 |