Notice
Recent Posts
Recent Comments
Link
«   2024/12   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
Archives
Today
Total
관리 메뉴

codingfarm

선형변환의 소개 본문

수학/선형대수학

선형변환의 소개

scarecrow1992 2020. 6. 18. 16:37

우선 함수에 관련된 몇가지 기본적인 개념을 알아보겠다.

 

$\mathbb R^n$에서 $\mathbb R^m$으로의 변환(transform) $T$는 $\mathbb R^n$에 속하는 벡터 $v$를 $\mathbb R^m$에 속하는 $T(V)$에 대응 하는 규칙이다.

 

$T$의 정의역(domain)은 $\mathbb R^n$이고

$T$의 공역(codomain)은 $\mathbb R^m$ 이며

이를 $T : \mathbb R^n \rightarrow \mathbb R^m$ 으로 나타낸다.

 

$T$아래에서 $V$의 상(image)은 $T$의 정의역의 벡터 $v$에 대해 공역의 벡터 $T(V)$를 지칭한다.

$T$의 치역(range)은 $v$가 $T$의 정의역에 있을때 가능한 모든 의 집합 $T(v)$를 지칭한다.

 

예를 통해 알아보겠다.

$$A = \begin{bmatrix}1 & 0 \\ 2 & -1 \\ 3 & 4 \end{bmatrix} , v = \begin{bmatrix} 1 \\ -1 \end{bmatrix}$$

이면

$$Av = \begin{bmatrix}1 & 0 \\ 2 & -1 \\ 3 & 4 \end{bmatrix} \begin{bmatrix} 1 \\ -1 \end{bmatrix} = \begin{bmatrix} 1 \\ 3\\ -1 \end{bmatrix}$$

이것은 $A$가 $v$를 $w = \begin{bmatrix} 1 \\ 3 \\ -1 \end{bmatrix}$ 로 변화시킴을 보여준다.

 

일반적으로 표현하면

$$\begin{bmatrix}1 & 0 \\ 2 & -1 \\ 3 & 4 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} x \\ 2x - y\\ 3x + 4y \end{bmatrix}$$

위는 $A$를 통해 $\mathbb R^2$에 속하는 임의의 벡터 $\begin{bmatrix} x\\ y \end{bmatrix}$가 $\mathbb R^3$에 속하는 벡터 $\begin{bmatrix} x \\ 2x - y \\ 3x + 4y \end{bmatrix}$로 어떻게 변하는가를 보여준다.

이 변환을 $T_A$로 표현하면

$$T_A \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} x \\ 2x-y \\ 3x + 4y \end{bmatrix}$$

위 예에서

$T_A$의 정의역은 $\mathbb R^2$이고

$T_A$의 공역은 $\mathbb R^3$이므로

$T_A : \mathbb R^2 \rightarrow \mathbb R^3$으로 표현한다.

$V = \begin{bmatrix} 1 \\ -1 \end{bmatrix}$의 상은 $w = T_A(V) = \begin{bmatrix} 1 \\ 3 \\ -1 \end{bmatrix}$

$T_A$의 치역은 $T_A\begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} x \\ 2x - y \\ 3x + 4y \end{bmatrix} = x \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} + y \begin{bmatrix} 0 \\ -1 \\ 4 \end{bmatrix}$ 의 형태이다.

즉 $T$의 치역은 $A$의 열공간이다.

기하학적으로 $T_A$의 치역은 $A$의 열벡터에 의해 주어진 방향벡터를 갖는 $\mathbb R^3$의 원점을 지나는 평면을 의미 한다.

$T_A$의 치역은 $T_A$의 공역에 속한다.

 

선형변환

여기서는 행렬변환에 기반으로 둔 선형변환에 대해 알아보겠다.

보다 일반화된 정의는 추후 배울것이다.

선형변환은 아래 2가지 조건을 만족한다.
1. $\mathbb R^n$에 속하는 임의의 $u,v$에 대하여 $T(u+v) = T(u) + T(v)$이다.
2. $\mathbb R^n$에 속하는 임의의 $u$와 스칼라 $c$에 대하여 $T(cu) = cT(u)$ 이다.
위 조건을 만족하는 변환 $T : \mathbb R^n \rightarrow \mathbb R^m$을 선형변환(linear transformation)이라고 한다.

즉, $\mathbb R^n$에 속하는 임의의 $v_1, v_2$와 스칼라 $c_1, c_2$에 대하여
$$T(c_1 v_1 + c_2 v_2 ) = c_1 T(v_1) + c_2 T(v_2)$$
이면, $T : \mathbb R^n \rightarrow \mathbb R^m$은 선형변환이다.

 

주어진 $T$로부터 행렬 $A$를 구하는것은 간단하다.

예제 5.55의 경우

$$T \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} x \\ 2x - y \\ 3x + 4y  \end{bmatrix} = x \begin{bmatrix} 1 \\ 2\\ 3 \end{bmatrix} + y \begin{bmatrix} 0 \\ -1 \\ 4 \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 2 & -1 \\ 3 & 4 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix}$$

이므로 $T=T_A$이다. 여기서 $A = \begin{bmatrix} 1 & 0 \\ 2 & -1 \\ 3 & 4 \end{bmatrix}$ 이다.

 

 

$A$가 $m \times n$ 행렬이라고 하자.
$$T_A(x) = Ax,\;\;\; x \in \mathbb R^n$$
로 정의되는 행렬변환 $T_A : \mathbb R^n \rightarrow \mathbb R^m$은 선형변환이다.

증명

$u$와 $v$는 $\mathbb R^n$에 속하는 임의의 벡터이고 $c$가 스칼라이면

$$T_A(u+v) = A(u+v) = Au + Av = T_A(u) + T_A(v)$$

이고

$$T_A(cv) = A(cv) = c(Av) = cT_A(v)$$

이다. 그러므로 행렬변환 $T_A$는 선형변환이다.

 

 

$T : \mathbb R^n \rightarrow \mathbb R^m$이 선형변환이면, $T$는 행렬변환이다. 다시말하면 $m \times n$행렬
$$A = [T(e_1) | T(e_2) | \cdots | T(e_n)]$$
에 대하여, $T = T_A$를 만족한다.

이때 행렬 $A$를 선형변환 $T$의 표준행렬(standard matrix)이라고 부른다.

증명

만일 하나의 행렬에 표준 기저 벡터를 곱하면 행렬의 열벡터를 얻게 된다. 가령

$$\begin{bmatrix} a & b \\ c & d \\ e & f \end{bmatrix} \begin{bmatrix} 1 \\ 0 \end{bmatrix} = \begin{bmatrix} a \\ c \\ e\end{bmatrix},\;\;\;\;\;\;\; \begin{bmatrix} a & b \\ c & d \\ e & f \end{bmatrix} \begin{bmatrix} 0 \\ 1 \end{bmatrix} = \begin{bmatrix} b \\ d\\ f \end{bmatrix}$$

이다. 위 개념을 이용하여 $\mathbb R^n$에서 $\mathbb R^m$으로의 모든 선형변환은 행렬변환이 됨을 보일 수 있다.

$e_1, e_2, \cdots, e_n$이 $\mathbb R^n$의 표준기저 벡터일 때, $x$가 $\mathbb R^n$의 임의의 벡터이면 $x = x_1e_1 + x_2e_2 + \cdots + x_n e_n$으로 표현된다. 여기서, $x_i$는 $x$의 성분이다. 또한 $T(e_1),T(e_2), \cdots, T(e_n)$은 $\mathbb R^m$의 (열)벡터들이다.

$A = [T(e_1) | T(e_2) | \cdots | T(e_n)]$를 이들 벡터를 열벡터로 갖는 $m \times n$행렬이라 두면

$$\begin{align*}
T(x) &= T(x_1e_1 + x_2e_2 + \cdots + x_n e_n) \\
&=x_1T(e_1) + x_2 T(e_2) + \cdots x_n T(e_n) \\ 
&=\begin{bmatrix} T(e_1) & T(e_2) & \cdots & T(e_n) \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} = Ax
\end{align*}$$

 

 

선형변환의 합성

$T : \mathbb R^m \rightarrow \mathbb R^n$과 $S : \mathbb R^n \rightarrow \mathbb R^p$가 선형변환이면

두 변환의 합성을 $S \cdot T$로 나타내고 이 또한 선형변환이다.

$S \cdots T$가 의미를 갖기 위해선 $T$의 공역과 $S$의 정의역이 일치되어야 한다.

 

합성변환 $S \cdot T$는 $T$의 정의역에서 $S$의 공역으로의 사상이다.

$S$와 $T$가 선형변환이면 $S \cdot T$도 선형변환이다.

 

$T : \mathbb R^m \rightarrow \mathbb R^n$과 $S : \mathbb R^n \rightarrow \mathbb R^p$ 가 선형변환이면, $S \cdot T : \mathbb R^m \rightarrow \mathbb R^p$도 션형변화니다. 더욱이 이들의 표준행렬은
$$[S \cdot T] = [S][T]$$
로 표현된다.

증명

$[S] = A, ~ [t] =B$ 라 한다. 이때 $A$는 $p \times n$, $b$는 $n \times m$ 행렬이다.

$v$가 $\mathbb R^m$의 한 벡터이면

$$(S \cdot T)(v) = S(T(v)) = S(Bv) = (AB)v $$

즉, 합셩변환의 행렬은 각 표준행렬의 곱이다.

 

Comments