선형대수학 (Linear Algebra)

선형대수학은 벡터 공간과 선형 사상을 연구하는 수학의 분야입니다. 과학, 공학, 컴퓨터 과학, 경제학, 통계학 등 거의 모든 분야에서 핵심 도구로 사용되며, 현대 수학의 언어라고 할 수 있습니다.

이런 곳에 쓰여요

  • 3D 게임: 캐릭터의 이동, 회전, 크기 변환을 행렬 곱셈으로 처리
  • 검색 엔진: 구글 PageRank가 수십억 개 웹페이지의 거대한 행렬 고유값 문제
  • 얼굴 인식: AI가 사진을 벡터로 변환하여 얼마나 비슷한지 내적으로 비교
  • 양자컴퓨팅: 큐비트, 양자 게이트, 얽힘을 복소 벡터와 유니터리 행렬로 표현
  • 데이터 압축: 넷플릭스 추천 시스템이 사용자-영화 행렬을 분해(SVD)하여 취향 예측

선수 지식: 대수학 기초

난이도: ★★★★☆ (대학교)

스칼라와 벡터 — 무엇이 다른가?

스칼라(Scalar)란?

스칼라는 크기(값)만 가진 양입니다. 우리가 일상에서 접하는 대부분의 "숫자"가 스칼라입니다.

스칼라의 실생활 예시:
  • 온도: "오늘 기온은 25°C입니다." — 방향이 없고 크기만 존재합니다.
  • 질량: "이 사과의 무게는 200g입니다." — 숫자 하나로 완전히 표현됩니다.
  • 속력: "자동차가 시속 80km로 달립니다." — 얼마나 빠른지만 말하고, 어디로 가는지는 말하지 않습니다.
  • 시간: "3시간이 걸렸습니다." — 방향 없이 크기만 있는 양입니다.

벡터(Vector)란?

벡터크기방향을 동시에 가진 양입니다. 스칼라가 "얼마나"만 알려준다면, 벡터는 "얼마나, 그리고 어디로"를 함께 알려줍니다.

벡터의 실생활 예시:
  • 변위: "집에서 학교까지 북쪽으로 2km" — 거리(크기)와 방향이 모두 있습니다.
  • 속도: "시속 80km로 동쪽으로 달린다." — 속력(크기) + 방향 = 속도(벡터)입니다.
  • 힘: "10N의 힘으로 오른쪽으로 밀다." — 얼마나 세게(크기) + 어디로(방향)입니다.
  • 바람: "북서풍, 풍속 15m/s" — 바람의 세기와 부는 방향이 있습니다.
왜 벡터가 필요한가? 스칼라만으로는 세상의 많은 현상을 정확히 표현할 수 없습니다. 예를 들어, 비행기가 "시속 900km로 날고 있다"라는 정보만으로는 비행기가 서울로 가는지, 뉴욕으로 가는지 알 수 없습니다. 속력(스칼라) 대신 속도(벡터)를 사용해야 비행기의 운동을 완전히 기술할 수 있습니다.

스칼라 vs. 벡터 비교

구분스칼라벡터
정보크기(값)만크기 + 방향
표기$a$, $c$, $\lambda$ (일반 글자)$\mathbf{v}$, $\vec{v}$ (굵은 글자 또는 화살표)
예시온도, 질량, 시간, 에너지변위, 속도, 힘, 가속도
비교크기만 비교 ($3 > 2$)크기와 방향이 모두 같아야 같음

벡터와 벡터 공간

벡터(Vector)는 크기와 방향을 가진 양입니다. 수학에서는 숫자들의 순서쌍으로 표현합니다. $n$차원 실수 벡터는 다음과 같이 표기합니다.

$$\mathbf{v} = \begin{pmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{pmatrix} \in \mathbb{R}^n$$
쉽게 이해하기: 2차원 벡터 $\mathbf{v} = \begin{pmatrix} 3 \\ 4 \end{pmatrix}$는 "오른쪽으로 3, 위로 4만큼 이동하라"는 뜻입니다. 이 벡터의 크기(길이)는 $\sqrt{3^2 + 4^2} = 5$이며, 방향은 오른쪽 위 약 53.1°입니다.

단위벡터와 기저벡터

단위벡터(Unit Vector)는 크기가 1인 벡터입니다. 임의의 벡터 $\mathbf{v}$의 단위벡터는 다음과 같이 구합니다.

$$\hat{\mathbf{v}} = \frac{\mathbf{v}}{\|\mathbf{v}\|}$$

예시: $\mathbf{v} = \begin{pmatrix} 3 \\ 4 \end{pmatrix}$의 단위벡터를 구합니다.

$\|\mathbf{v}\| = \sqrt{3^2 + 4^2} = \sqrt{25} = 5$이므로:

$$\hat{\mathbf{v}} = \frac{1}{5}\begin{pmatrix} 3 \\ 4 \end{pmatrix} = \begin{pmatrix} 0.6 \\ 0.8 \end{pmatrix}$$

검증: $\|\hat{\mathbf{v}}\| = \sqrt{0.6^2 + 0.8^2} = \sqrt{0.36 + 0.64} = \sqrt{1} = 1$ ✓

표준 기저벡터(Standard Basis Vectors)는 각 축 방향의 단위벡터입니다.

왜 기저벡터가 중요한가? 모든 벡터는 기저벡터의 조합으로 표현할 수 있습니다. 예를 들어 $\begin{pmatrix} 3 \\ 4 \end{pmatrix} = 3\mathbf{e}_1 + 4\mathbf{e}_2$입니다. 이것은 마치 "동쪽으로 3블록, 북쪽으로 4블록"과 같이 각 축 방향의 성분으로 분해하는 것입니다.

벡터 연산

연산정의기하학적 의미
덧셈$\mathbf{u} + \mathbf{v} = (u_1 + v_1, \ldots, u_n + v_n)$평행사변형 법칙
스칼라 곱$c\mathbf{v} = (cv_1, \ldots, cv_n)$크기 변환 (방향 보존/반전)
내적$\mathbf{u} \cdot \mathbf{v} = \sum_{i=1}^{n} u_i v_i$$\|\mathbf{u}\|\|\mathbf{v}\|\cos\theta$
노름$\|\mathbf{v}\| = \sqrt{\mathbf{v} \cdot \mathbf{v}}$벡터의 길이
외적 ($\mathbb{R}^3$)$\mathbf{u} \times \mathbf{v} = \det\begin{pmatrix}\mathbf{i}&\mathbf{j}&\mathbf{k}\\u_1&u_2&u_3\\v_1&v_2&v_3\end{pmatrix}$두 벡터에 수직, 크기 = 평행사변형 넓이

벡터 덧셈 — 단계별 예시

$\mathbf{u} = \begin{pmatrix} 2 \\ 3 \end{pmatrix}$, $\mathbf{v} = \begin{pmatrix} 4 \\ 1 \end{pmatrix}$일 때:

$$\mathbf{u} + \mathbf{v} = \begin{pmatrix} 2 + 4 \\ 3 + 1 \end{pmatrix} = \begin{pmatrix} 6 \\ 4 \end{pmatrix}$$
직관적 이해 (꼬리-머리 방법): 벡터 덧셈은 "이어 걷기"입니다. $\mathbf{u}$만큼 이동한 후, 그 끝점에서 $\mathbf{v}$만큼 더 이동하면 도착점이 $\mathbf{u} + \mathbf{v}$입니다. 예를 들어, "동쪽 2km → 북쪽 3km" 후 "동쪽 4km → 북쪽 1km"를 더 가면 출발점에서 "동쪽 6km, 북쪽 4km" 지점에 도착합니다.

벡터 뺄셈

$\mathbf{u} - \mathbf{v}$는 $\mathbf{v}$의 끝점에서 $\mathbf{u}$의 끝점으로 향하는 벡터입니다.

$$\mathbf{u} - \mathbf{v} = \begin{pmatrix} 2 - 4 \\ 3 - 1 \end{pmatrix} = \begin{pmatrix} -2 \\ 2 \end{pmatrix}$$

스칼라 곱 — 단계별 예시

$\mathbf{v} = \begin{pmatrix} 3 \\ -2 \end{pmatrix}$일 때:

왜 이렇게 하는가? 스칼라 곱은 벡터의 방향은 유지하면서 크기만 바꿉니다. 양수를 곱하면 같은 방향, 음수를 곱하면 반대 방향이 됩니다. 이것은 "같은 방향으로 더 세게/약하게 밀기"에 해당합니다.

내적(Dot Product) — 직관적 이해

내적은 "두 벡터가 얼마나 같은 방향을 가리키는가"를 측정합니다.

계산 방법: 대응하는 성분끼리 곱한 후 모두 더합니다.

$\mathbf{u} = \begin{pmatrix} 2 \\ 3 \end{pmatrix}$, $\mathbf{v} = \begin{pmatrix} 4 \\ 1 \end{pmatrix}$일 때:

$$\mathbf{u} \cdot \mathbf{v} = (2)(4) + (3)(1) = 8 + 3 = 11$$

기하학적 의미: 내적은 $\mathbf{u} \cdot \mathbf{v} = \|\mathbf{u}\|\|\mathbf{v}\|\cos\theta$와 같습니다. 여기서 $\theta$는 두 벡터 사이의 각도입니다.

내적 값두 벡터의 관계각도
양수 ($> 0$)비슷한 방향$0° \leq \theta < 90°$
0직각 (수직)$\theta = 90°$
음수 ($< 0$)반대 방향$90° < \theta \leq 180°$
실생활 비유: 내적은 "일(Work)"과 같습니다. 물리학에서 일 = 힘 × 이동거리 × cos(각도)입니다. 힘의 방향과 이동 방향이 같으면(cos 0° = 1) 일이 최대이고, 직각이면(cos 90° = 0) 일이 0입니다. 무거운 상자를 미는데, 힘을 위로 주면 상자가 앞으로 안 움직이는 것과 같습니다.

외적(Cross Product) — 직관적 이해

외적은 3차원에서만 정의되며, 결과가 벡터입니다 (내적은 스칼라입니다).

예시: $\mathbf{u} = \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}$, $\mathbf{v} = \begin{pmatrix} 4 \\ 5 \\ 6 \end{pmatrix}$일 때:

$$\mathbf{u} \times \mathbf{v} = \begin{pmatrix} (2)(6) - (3)(5) \\ (3)(4) - (1)(6) \\ (1)(5) - (2)(4) \end{pmatrix} = \begin{pmatrix} 12 - 15 \\ 12 - 6 \\ 5 - 8 \end{pmatrix} = \begin{pmatrix} -3 \\ 6 \\ -3 \end{pmatrix}$$

기하학적 의미:

왜 외적이 필요한가? 두 벡터에 동시에 수직인 방향을 구할 때 외적을 사용합니다. 예를 들어, 테이블 위에 연필 두 자루를 놓으면 테이블 표면(평면)이 결정되고, 그 평면에 수직인 방향(법선벡터)을 외적으로 구할 수 있습니다. 3D 그래픽스에서 표면의 앞면/뒷면을 구분하는 데 필수적입니다.

벡터 공간의 공리

벡터 공간(Vector Space) $V$는 체 $F$ 위에서 벡터 덧셈과 스칼라 곱이 정의되며, 다음 8가지 공리를 만족하는 집합입니다.

번호공리성질
1$\mathbf{u} + \mathbf{v} \in V$덧셈 닫힘
2$\mathbf{u} + \mathbf{v} = \mathbf{v} + \mathbf{u}$교환법칙
3$(\mathbf{u} + \mathbf{v}) + \mathbf{w} = \mathbf{u} + (\mathbf{v} + \mathbf{w})$결합법칙
4$\exists \mathbf{0}: \mathbf{v} + \mathbf{0} = \mathbf{v}$영벡터 존재
5$\exists -\mathbf{v}: \mathbf{v} + (-\mathbf{v}) = \mathbf{0}$역벡터 존재
6$c\mathbf{v} \in V$스칼라 곱 닫힘
7$c(\mathbf{u} + \mathbf{v}) = c\mathbf{u} + c\mathbf{v}$분배법칙 I
8$1\mathbf{v} = \mathbf{v}$스칼라 항등원

벡터 공간의 예

부분공간, 일차독립, 기저

부분공간 (Subspace)

벡터 공간 $V$의 비어있지 않은 부분집합 $W$가 덧셈과 스칼라 곱에 대해 닫혀있으면 $W$는 $V$의 부분공간입니다. 확인 조건:

  1. $\mathbf{0} \in W$
  2. $\mathbf{u}, \mathbf{v} \in W \implies \mathbf{u} + \mathbf{v} \in W$
  3. $c \in F, \mathbf{v} \in W \implies c\mathbf{v} \in W$

일차결합과 생성

벡터 $\mathbf{v}_1, \ldots, \mathbf{v}_k$의 일차결합(Linear Combination)은 $c_1\mathbf{v}_1 + c_2\mathbf{v}_2 + \cdots + c_k\mathbf{v}_k$입니다.

이 벡터들의 모든 일차결합의 집합을 생성(Span)이라 합니다:

$$\text{Span}(\mathbf{v}_1, \ldots, \mathbf{v}_k) = \{c_1\mathbf{v}_1 + \cdots + c_k\mathbf{v}_k \mid c_i \in F\}$$

일차독립 (Linear Independence)

벡터 $\mathbf{v}_1, \ldots, \mathbf{v}_k$가 일차독립이면:

$$c_1\mathbf{v}_1 + c_2\mathbf{v}_2 + \cdots + c_k\mathbf{v}_k = \mathbf{0} \implies c_1 = c_2 = \cdots = c_k = 0$$

일차독립이 아니면 일차종속(Linearly Dependent)이라 합니다.

기저와 차원

벡터 공간 $V$의 기저(Basis)는 일차독립이면서 $V$를 생성하는 벡터들의 집합입니다.

핵심 정리: 유한차원 벡터 공간의 모든 기저는 같은 개수의 벡터를 가지며, 이 수를 차원(Dimension)이라 합니다. $\dim(\mathbb{R}^n) = n$.

$\mathbb{R}^n$의 표준 기저: $\mathbf{e}_1 = (1,0,\ldots,0)$, $\mathbf{e}_2 = (0,1,\ldots,0)$, $\ldots$, $\mathbf{e}_n = (0,0,\ldots,1)$

행렬과 행렬 연산

행렬이란 무엇인가?

행렬(Matrix)은 수를 직사각형 모양으로 배열한 것입니다. 쉽게 말해, 규칙이 있는 숫자 표입니다. $m \times n$ 행렬은 $m$개의 행(가로줄)과 $n$개의 열(세로줄)을 가집니다.

$$A = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix} = (a_{ij})_{m \times n}$$
행렬이 왜 필요한가? — 실생활 예시:
  • 이미지: 흑백 사진은 각 픽셀의 밝기를 숫자로 표현한 행렬입니다. 1920×1080 해상도의 사진은 1080×1920 행렬입니다.
  • 연립방정식: 여러 개의 방정식을 하나의 행렬식 $A\mathbf{x} = \mathbf{b}$로 깔끔하게 정리할 수 있습니다.
  • 3D 그래픽: 게임에서 캐릭터를 이동, 회전, 확대하는 것이 모두 행렬 곱셈입니다.
  • 데이터 분석: 100명의 학생의 5과목 성적은 100×5 행렬로 표현합니다.

구체적 예시: $2 \times 3$ 행렬 (2행 3열):

$$A = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{pmatrix}$$

여기서 $a_{12} = 2$ (1행 2열), $a_{23} = 6$ (2행 3열)입니다.

행렬 덧셈과 스칼라 곱

같은 크기의 행렬끼리만 덧셈이 가능하며, 대응하는 위치의 원소끼리 더합니다.

$$\begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} + \begin{pmatrix} 5 & 6 \\ 7 & 8 \end{pmatrix} = \begin{pmatrix} 1+5 & 2+6 \\ 3+7 & 4+8 \end{pmatrix} = \begin{pmatrix} 6 & 8 \\ 10 & 12 \end{pmatrix}$$

스칼라 곱은 모든 원소에 같은 수를 곱합니다.

$$3 \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} = \begin{pmatrix} 3 & 6 \\ 9 & 12 \end{pmatrix}$$

행렬 곱셈

$m \times n$ 행렬 $A$와 $n \times p$ 행렬 $B$의 곱 $C = AB$는 $m \times p$ 행렬이며:

$$c_{ij} = \sum_{k=1}^{n} a_{ik} b_{kj}$$

핵심 규칙: $C$의 $(i, j)$ 원소는 "$A$의 $i$번째 행"과 "$B$의 $j$번째 열"을 내적한 것입니다.

행렬 곱셈 단계별 예시

$A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}$, $B = \begin{pmatrix} 5 & 6 \\ 7 & 8 \end{pmatrix}$일 때 $C = AB$를 구합니다.

$c_{11}$: $A$의 1행 $(1, 2)$과 $B$의 1열 $\begin{pmatrix}5\\7\end{pmatrix}$의 내적

$$c_{11} = (1)(5) + (2)(7) = 5 + 14 = 19$$

$c_{12}$: $A$의 1행 $(1, 2)$과 $B$의 2열 $\begin{pmatrix}6\\8\end{pmatrix}$의 내적

$$c_{12} = (1)(6) + (2)(8) = 6 + 16 = 22$$

$c_{21}$: $A$의 2행 $(3, 4)$과 $B$의 1열 $\begin{pmatrix}5\\7\end{pmatrix}$의 내적

$$c_{21} = (3)(5) + (4)(7) = 15 + 28 = 43$$

$c_{22}$: $A$의 2행 $(3, 4)$과 $B$의 2열 $\begin{pmatrix}6\\8\end{pmatrix}$의 내적

$$c_{22} = (3)(6) + (4)(8) = 18 + 32 = 50$$

최종 결과:

$$AB = \begin{pmatrix} 19 & 22 \\ 43 & 50 \end{pmatrix}$$
왜 이렇게 곱하는가? 행렬 곱셈이 "행×열"인 이유는 연립방정식과 선형변환에서 자연스럽게 나오기 때문입니다. 예를 들어, $y_1 = a_{11}x_1 + a_{12}x_2$, $y_2 = a_{21}x_1 + a_{22}x_2$라는 두 식은 $\mathbf{y} = A\mathbf{x}$로 표현되며, 각 행이 하나의 방정식에 대응합니다.
주의 — 행렬 곱셈의 조건: $A$가 $m \times \mathbf{n}$ 행렬이고 $B$가 $\mathbf{n} \times p$ 행렬일 때만 $AB$를 계산할 수 있습니다. $A$의 열 수와 $B$의 행 수가 같아야 합니다. 다르면 곱셈이 정의되지 않습니다.
주의: 행렬 곱셈은 일반적으로 교환법칙이 성립하지 않습니다. 즉, $AB \neq BA$입니다. 또한 $AB = 0$이라도 $A = 0$ 또는 $B = 0$이 아닐 수 있습니다.

행렬 곱셈의 성질

특수 행렬

행렬정의성질
단위행렬 $I_n$대각 원소 1, 나머지 0$AI = IA = A$ (곱셈의 항등원)
영행렬 $O$모든 원소 0$A + O = A$ (덧셈의 항등원)
전치행렬 $A^T$$(A^T)_{ij} = A_{ji}$$(A^T)^T = A$
대칭행렬$A^T = A$고유값이 실수, 직교 대각화 가능
직교행렬 $Q$$Q^T Q = I$$Q^{-1} = Q^T$, 거리/각도 보존
대각행렬비대각 원소 모두 0곱, 거듭제곱 계산 용이
상삼각행렬대각선 아래 원소 모두 0행렬식 = 대각 원소의 곱
단위행렬과 영행렬을 쉽게 이해하기:
  • 단위행렬 $I$는 행렬의 세계에서 숫자 1과 같은 역할을 합니다. 숫자에서 $a \times 1 = a$이듯, 행렬에서 $AI = A$입니다. 예: $I_2 = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}$
  • 영행렬 $O$는 행렬의 세계에서 숫자 0과 같은 역할을 합니다. $A + O = A$이고 $AO = O$입니다.

역행렬

$n \times n$ 행렬 $A$에 대해 $AA^{-1} = A^{-1}A = I$를 만족하는 $A^{-1}$를 역행렬(Inverse Matrix)이라 합니다.

역행렬이란? 숫자 5의 역수는 $\frac{1}{5}$이며, $5 \times \frac{1}{5} = 1$입니다. 마찬가지로 행렬 $A$의 역행렬 $A^{-1}$은 $A \times A^{-1} = I$ (단위행렬)를 만족하는 행렬입니다. 역행렬은 "행렬의 효과를 되돌리는 행렬"입니다. 예를 들어, $A$가 벡터를 90° 회전시킨다면 $A^{-1}$은 -90° 회전시킵니다.

$2 \times 2$ 역행렬 공식:

$$\begin{pmatrix} a & b \\ c & d \end{pmatrix}^{-1} = \frac{1}{ad - bc}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}$$

$2 \times 2$ 역행렬 — 단계별 예시

$A = \begin{pmatrix} 2 & 1 \\ 5 & 3 \end{pmatrix}$의 역행렬을 구합니다.

1단계 — 행렬식 계산:

$$\det(A) = ad - bc = (2)(3) - (1)(5) = 6 - 5 = 1$$

2단계 — 공식 적용: $d$와 $a$를 교환하고, $b$와 $c$의 부호를 바꿉니다.

$$A^{-1} = \frac{1}{1}\begin{pmatrix} 3 & -1 \\ -5 & 2 \end{pmatrix} = \begin{pmatrix} 3 & -1 \\ -5 & 2 \end{pmatrix}$$

3단계 — 검증: $AA^{-1} = I$인지 확인합니다.

$$\begin{pmatrix} 2 & 1 \\ 5 & 3 \end{pmatrix}\begin{pmatrix} 3 & -1 \\ -5 & 2 \end{pmatrix} = \begin{pmatrix} (2)(3)+(1)(-5) & (2)(-1)+(1)(2) \\ (5)(3)+(3)(-5) & (5)(-1)+(3)(2) \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I \; ✓$$
역행렬이 존재하지 않는 경우: $\det(A) = 0$이면 역행렬이 존재하지 않으며, 이런 행렬을 특이행렬(Singular Matrix)이라 합니다. 예: $\begin{pmatrix} 1 & 2 \\ 2 & 4 \end{pmatrix}$의 행렬식은 $(1)(4) - (2)(2) = 0$이므로 역행렬이 없습니다. 이는 두 행이 비례 관계($2$행 $= 2 \times 1$행)이기 때문입니다.
가역 행렬 판정 (동치 조건): $n \times n$ 행렬 $A$에 대해 다음은 모두 동치입니다: (1) $A$는 가역, (2) $\det(A) \neq 0$, (3) $\text{rank}(A) = n$, (4) $A$의 열벡터가 일차독립, (5) $A\mathbf{x} = \mathbf{0}$의 해가 $\mathbf{x} = \mathbf{0}$뿐, (6) $A\mathbf{x} = \mathbf{b}$가 모든 $\mathbf{b}$에 대해 유일한 해를 가짐.

행렬식

행렬식(Determinant) $\det(A)$ 또는 $|A|$는 정사각행렬에 대해 정의되는 스칼라값입니다.

행렬식이란? 행렬식은 "행렬이 공간을 얼마나 늘리거나 줄이는가"를 알려주는 숫자입니다.
  • $|\det(A)| = 2$이면 행렬 $A$가 넓이를 2배로 늘립니다.
  • $|\det(A)| = 0.5$이면 넓이를 절반으로 줄입니다.
  • $\det(A) = 0$이면 공간을 "찌그러뜨려서" 차원을 낮춥니다 (넓이 → 선, 부피 → 면 등).
  • $\det(A) < 0$이면 공간이 "뒤집힙니다" (거울 반사처럼).

$2 \times 2$ 행렬식

$$\det\begin{pmatrix} a & b \\ c & d \end{pmatrix} = ad - bc$$

단계별 예시: $A = \begin{pmatrix} 3 & 1 \\ 2 & 4 \end{pmatrix}$

$$\det(A) = (3)(4) - (1)(2) = 12 - 2 = 10$$

기하학적 의미: 벡터 $\begin{pmatrix}3\\2\end{pmatrix}$와 $\begin{pmatrix}1\\4\end{pmatrix}$가 이루는 평행사변형의 넓이가 10입니다.

$3 \times 3$ 행렬식

여인수 전개(Cofactor Expansion): 첫 번째 행에 대해 전개하면:

$$\det(A) = a_{11}C_{11} + a_{12}C_{12} + a_{13}C_{13}$$

여기서 여인수 $C_{ij} = (-1)^{i+j} M_{ij}$이고, $M_{ij}$는 $i$행 $j$열을 제거한 소행렬의 행렬식입니다.

사루스 법칙(Sarrus' Rule): $3 \times 3$ 행렬에만 적용 가능한 간편법입니다.

$$\det\begin{pmatrix} a_1 & b_1 & c_1 \\ a_2 & b_2 & c_2 \\ a_3 & b_3 & c_3 \end{pmatrix} = a_1 b_2 c_3 + b_1 c_2 a_3 + c_1 a_2 b_3 - c_1 b_2 a_3 - b_1 a_2 c_3 - a_1 c_2 b_3$$

행렬식의 성질

성질수식
곱의 행렬식$\det(AB) = \det(A) \cdot \det(B)$
전치$\det(A^T) = \det(A)$
스칼라 곱$\det(cA) = c^n \det(A)$
역행렬$\det(A^{-1}) = 1/\det(A)$
행 교환부호 반전
한 행이 영벡터$\det(A) = 0$
두 행이 같음$\det(A) = 0$
삼각행렬대각 원소의 곱

행렬식의 기하학적 의미

$n \times n$ 행렬 $A$의 행렬식 $|\det(A)|$는 $A$의 열벡터(또는 행벡터)들이 이루는 $n$차원 평행다면체의 부피입니다.

실생활 비유: 단위정사각형(1×1)에 행렬 $A$를 적용하면, 결과 도형의 넓이가 $|\det(A)|$입니다. $\det(A) = 3$이면 넓이가 3배가 되고, $\det(A) = 0$이면 도형이 찌그러져 선(또는 점)이 됩니다. 이것이 "$\det(A) = 0$이면 역행렬이 없다"는 것과 연결됩니다 — 찌그러뜨린 것을 되돌릴 수 없기 때문입니다.

행렬식 계산 — 3가지 방법 비교

다음 $3 \times 3$ 행렬의 행렬식을 여인수 전개, 행 연산, 라이프니츠 공식의 세 가지 방법으로 구합니다.

$$A = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 4 & 5 \\ 1 & 0 & 6 \end{pmatrix}$$

방법 1 — 여인수 전개 (Cofactor Expansion)

1행에 대해 전개합니다. $\det(A) = a_{11}C_{11} + a_{12}C_{12} + a_{13}C_{13}$

$$= 1 \cdot (+1)\det\begin{pmatrix} 4 & 5 \\ 0 & 6 \end{pmatrix} + 2 \cdot (-1)\det\begin{pmatrix} 0 & 5 \\ 1 & 6 \end{pmatrix} + 3 \cdot (+1)\det\begin{pmatrix} 0 & 4 \\ 1 & 0 \end{pmatrix}$$ $$= 1(24 - 0) - 2(0 - 5) + 3(0 - 4)$$ $$= 24 + 10 - 12 = \boxed{22}$$
팁: 0이 많은 행이나 열로 전개하면 계산이 간단해집니다. 이 행렬에서는 1열에 0이 없지만 2행의 $a_{21}=0$이므로, 2행으로 전개하면 첫 항이 0이 되어 계산이 줄어듭니다.

방법 2 — 행 연산을 이용한 삼각화

기본 행 연산으로 상삼각행렬을 만들면 행렬식은 대각 원소의 곱입니다.

$$\begin{pmatrix} 1 & 2 & 3 \\ 0 & 4 & 5 \\ 1 & 0 & 6 \end{pmatrix} \xrightarrow{R_3 \leftarrow R_3 - R_1} \begin{pmatrix} 1 & 2 & 3 \\ 0 & 4 & 5 \\ 0 & -2 & 3 \end{pmatrix} \xrightarrow{R_3 \leftarrow R_3 + \frac{1}{2}R_2} \begin{pmatrix} 1 & 2 & 3 \\ 0 & 4 & 5 \\ 0 & 0 & \frac{11}{2} \end{pmatrix}$$

행 교환은 하지 않았으므로 부호 변화 없이:

$$\det(A) = 1 \times 4 \times \frac{11}{2} = \boxed{22}$$

방법 3 — 라이프니츠 공식 (Leibniz Formula)

$n \times n$ 행렬의 행렬식은 $n!$개 순열의 합으로 표현됩니다.

$$\det(A) = \sum_{\sigma \in S_n} \text{sgn}(\sigma) \prod_{i=1}^{n} a_{i,\sigma(i)}$$

$3 \times 3$의 경우 $3! = 6$개 순열:

순열 $\sigma$부호 $\text{sgn}(\sigma)$곱 $\prod a_{i,\sigma(i)}$기여
$(1,2,3)$$+1$$1 \cdot 4 \cdot 6 = 24$$+24$
$(1,3,2)$$-1$$1 \cdot 5 \cdot 0 = 0$$0$
$(2,1,3)$$-1$$2 \cdot 0 \cdot 6 = 0$$0$
$(2,3,1)$$+1$$2 \cdot 5 \cdot 1 = 10$$+10$
$(3,1,2)$$+1$$3 \cdot 0 \cdot 0 = 0$$0$
$(3,2,1)$$-1$$3 \cdot 4 \cdot 1 = 12$$-12$
$$\det(A) = 24 + 0 + 0 + 10 + 0 - 12 = \boxed{22}$$
비교 정리: 여인수 전개는 작은 행렬이나 0이 많은 행렬에 유리합니다. 행 연산법은 큰 행렬에서 실용적이며 $O(n^3)$입니다. 라이프니츠 공식은 $O(n! \cdot n)$이므로 이론적 정의에 가깝고 직접 계산에는 부적합합니다.

연립일차방정식과 가우스 소거법

연립일차방정식 $A\mathbf{x} = \mathbf{b}$를 행렬의 기본 행 연산으로 풀 수 있습니다.

기본 행 연산 (Elementary Row Operations)

  1. 행 교환: $R_i \leftrightarrow R_j$
  2. 스칼라 곱: $R_i \leftarrow cR_i$ ($c \neq 0$)
  3. 행 덧셈: $R_i \leftarrow R_i + cR_j$

행 사다리꼴 형태 (REF) / 기약 행 사다리꼴 형태 (RREF)

형태조건
REF각 행의 첫 번째 0이 아닌 원소(피벗)가 윗행의 피벗보다 오른쪽에 위치
RREFREF 조건 + 피벗이 1 + 피벗 열의 나머지 원소가 모두 0

해의 구조: 랭크

랭크(Rank)는 행렬의 REF에서 영이 아닌 행의 수, 즉 피벗의 수입니다.

해의 존재와 유일성 (행렬 $A$가 $m \times n$, 랭크 $r$):
  • $r < m$이고 비호환 → 해 없음 (불능)
  • $r = n$ → 해가 있다면 유일
  • $r < n$ → 해가 있다면 무한히 많음 ($n - r$개의 자유 변수)

같은 연립방정식, 4가지 풀이법

다음 연립방정식을 가우스 소거법, 크래머 공식, 역행렬법, LU분해의 4가지 방법으로 풀어보겠습니다.

$$\begin{cases} 2x + y = 5 \\ x + 3y = 5 \end{cases} \quad \Longleftrightarrow \quad A\mathbf{x} = \mathbf{b}, \quad A = \begin{pmatrix} 2 & 1 \\ 1 & 3 \end{pmatrix}, \; \mathbf{b} = \begin{pmatrix} 5 \\ 5 \end{pmatrix}$$

풀이 1 — 가우스 소거법 (Gaussian Elimination)

확대행렬을 행 연산으로 사다리꼴 형태로 변환합니다.

$$\left(\begin{array}{cc|c} 2 & 1 & 5 \\ 1 & 3 & 5 \end{array}\right) \xrightarrow{R_2 \leftarrow R_2 - \frac{1}{2}R_1} \left(\begin{array}{cc|c} 2 & 1 & 5 \\ 0 & \frac{5}{2} & \frac{5}{2} \end{array}\right)$$

역대입: $\frac{5}{2}y = \frac{5}{2} \implies y = 1$, $2x + 1 = 5 \implies x = 2$

따라서 $\boxed{x = 2, \; y = 1}$입니다.

풀이 2 — 크래머 공식 (Cramer's Rule)

크래머 공식은 행렬식을 이용하여 해를 직접 구합니다.

$$\det(A) = (2)(3) - (1)(1) = 5$$ $$x = \frac{\det(A_x)}{\det(A)} = \frac{\det\begin{pmatrix} 5 & 1 \\ 5 & 3 \end{pmatrix}}{5} = \frac{15 - 5}{5} = \frac{10}{5} = 2$$ $$y = \frac{\det(A_y)}{\det(A)} = \frac{\det\begin{pmatrix} 2 & 5 \\ 1 & 5 \end{pmatrix}}{5} = \frac{10 - 5}{5} = \frac{5}{5} = 1$$

$A_x$는 $A$의 1열을 $\mathbf{b}$로 대체한 행렬, $A_y$는 2열을 $\mathbf{b}$로 대체한 행렬입니다.

풀이 3 — 역행렬법 (Inverse Matrix Method)

$\mathbf{x} = A^{-1}\mathbf{b}$를 이용합니다.

$$A^{-1} = \frac{1}{\det(A)}\begin{pmatrix} 3 & -1 \\ -1 & 2 \end{pmatrix} = \frac{1}{5}\begin{pmatrix} 3 & -1 \\ -1 & 2 \end{pmatrix}$$ $$\mathbf{x} = \frac{1}{5}\begin{pmatrix} 3 & -1 \\ -1 & 2 \end{pmatrix}\begin{pmatrix} 5 \\ 5 \end{pmatrix} = \frac{1}{5}\begin{pmatrix} 15 - 5 \\ -5 + 10 \end{pmatrix} = \frac{1}{5}\begin{pmatrix} 10 \\ 5 \end{pmatrix} = \begin{pmatrix} 2 \\ 1 \end{pmatrix}$$

풀이 4 — LU 분해

$A = LU$로 분해한 뒤, 전진대입과 후진대입을 순서대로 수행합니다.

1단계 — LU 분해: 가우스 소거 과정에서 승수 $\ell_{21} = \frac{1}{2}$를 기록합니다.

$$L = \begin{pmatrix} 1 & 0 \\ \frac{1}{2} & 1 \end{pmatrix}, \quad U = \begin{pmatrix} 2 & 1 \\ 0 & \frac{5}{2} \end{pmatrix}$$

2단계 — 전진대입 $L\mathbf{y} = \mathbf{b}$:

$$\begin{pmatrix} 1 & 0 \\ \frac{1}{2} & 1 \end{pmatrix}\begin{pmatrix} y_1 \\ y_2 \end{pmatrix} = \begin{pmatrix} 5 \\ 5 \end{pmatrix} \implies y_1 = 5, \; y_2 = 5 - \tfrac{1}{2}(5) = \tfrac{5}{2}$$

3단계 — 후진대입 $U\mathbf{x} = \mathbf{y}$:

$$\begin{pmatrix} 2 & 1 \\ 0 & \frac{5}{2} \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 5 \\ \frac{5}{2} \end{pmatrix} \implies y = 1, \; x = \frac{5 - 1}{2} = 2$$
4가지 방법 비교:
방법복잡도 ($n \times n$)장점단점
가우스 소거법$O(n^3)$범용적, 해의 존재 여부 판단 가능수치적 오차 누적 가능
크래머 공식$O(n! \cdot n)$이론적으로 깔끔, 일부 변수만 구할 때 유용$n$이 클 때 비실용적
역행렬법$O(n^3)$여러 $\mathbf{b}$에 대해 $A^{-1}$ 재사용$A^{-1}$ 계산 자체가 비쌈
LU 분해$O(n^3)$ 분해 + $O(n^2)$ 대입같은 $A$, 다른 $\mathbf{b}$ 반복 풀이에 최적피벗팅이 필요할 수 있음

기하학적 해석 — 두 직선의 교점

x y 0 1 2 3 1 2 3 2x + y = 5 x + 3y = 5 (2, 1)

선형변환

$T: V \to W$가 선형변환(Linear Transformation)이면 다음을 만족합니다:

  1. $T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v})$ — 가법성
  2. $T(c\mathbf{v}) = cT(\mathbf{v})$ — 동차성

동치 조건: $T(c_1\mathbf{v}_1 + c_2\mathbf{v}_2) = c_1 T(\mathbf{v}_1) + c_2 T(\mathbf{v}_2)$

행렬 표현

유한차원 벡터 공간 사이의 모든 선형변환은 행렬로 표현할 수 있습니다. $T: \mathbb{R}^n \to \mathbb{R}^m$이면 $T(\mathbf{x}) = A\mathbf{x}$인 $m \times n$ 행렬 $A$가 존재합니다.

핵과 상

개념정의의미
핵 (Kernel, Null Space)$\ker(T) = \{\mathbf{v} \in V \mid T(\mathbf{v}) = \mathbf{0}\}$$V$의 부분공간
상 (Image, Range)$\text{Im}(T) = \{T(\mathbf{v}) \mid \mathbf{v} \in V\}$$W$의 부분공간
차원 정리 (Rank-Nullity Theorem): $$\dim(\ker(T)) + \dim(\text{Im}(T)) = \dim(V)$$ 즉, 퇴화차수(Nullity) + 랭크(Rank) = 정의역의 차원입니다.

주요 기하학적 선형변환 ($\mathbb{R}^2$)

변환행렬설명
회전 ($\theta$)$\begin{pmatrix}\cos\theta & -\sin\theta \\ \sin\theta & \cos\theta\end{pmatrix}$반시계방향 $\theta$ 회전
$x$축 대칭$\begin{pmatrix}1 & 0 \\ 0 & -1\end{pmatrix}$$y$ 좌표 반전
원점 대칭$\begin{pmatrix}-1 & 0 \\ 0 & -1\end{pmatrix}$$180°$ 회전
$x$축 방향 확대$\begin{pmatrix}k & 0 \\ 0 & 1\end{pmatrix}$$x$ 방향 $k$배
전단 (shear)$\begin{pmatrix}1 & k \\ 0 & 1\end{pmatrix}$$x$ 방향 밀림
사영 ($x$축)$\begin{pmatrix}1 & 0 \\ 0 & 0\end{pmatrix}$$x$축으로 사영

고유값과 고유벡터

고유값과 고유벡터란?

정사각행렬 $A$에 대하여 다음을 만족하는 $\mathbf{0}$이 아닌 벡터 $\mathbf{v}$와 스칼라 $\lambda$가 존재할 때:

$$\boxed{A\mathbf{v} = \lambda\mathbf{v}}$$

$\lambda$를 고유값(Eigenvalue), $\mathbf{v}$를 고유벡터(Eigenvector)라 합니다.

직관적 이해: 행렬 $A$는 벡터를 변환합니다 — 회전시키고, 늘이고, 줄이고, 뒤집습니다. 그런데 어떤 특별한 벡터 $\mathbf{v}$는 $A$를 적용해도 방향이 바뀌지 않고 크기만 변합니다. 이런 "특별한 방향"이 고유벡터이고, "크기가 몇 배로 변하는가"가 고유값입니다.
실생활 비유:
  • 고무판 늘이기: 고무판을 가로 방향으로 2배, 세로 방향으로 3배 늘인다고 합시다. 이때 가로축 방향의 벡터는 방향은 그대로이고 2배 길어집니다 (고유벡터, 고유값 2). 세로축 방향도 마찬가지입니다 (고유벡터, 고유값 3). 그러나 대각선 방향의 벡터는 방향이 바뀝니다 — 고유벡터가 아닙니다.
  • 구글 PageRank: 웹페이지 사이의 링크를 행렬로 표현했을 때, 가장 큰 고유값에 대응하는 고유벡터가 각 페이지의 "중요도 점수"가 됩니다.

고유값 구하기

특성방정식(Characteristic Equation):

$$\det(A - \lambda I) = 0$$

이 다항식을 특성다항식(Characteristic Polynomial)이라 합니다. $n \times n$ 행렬의 특성다항식은 $n$차입니다.

왜 $\det(A - \lambda I) = 0$인가? $A\mathbf{v} = \lambda\mathbf{v}$를 변형하면 $(A - \lambda I)\mathbf{v} = \mathbf{0}$입니다. $\mathbf{v} \neq \mathbf{0}$인 해가 존재하려면 행렬 $(A - \lambda I)$가 특이행렬이어야 하므로, 행렬식이 0이 되어야 합니다.

예시

$A = \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix}$의 고유값과 고유벡터를 구합니다.

1단계 (고유값):

$$\det\begin{pmatrix} 4-\lambda & 1 \\ 2 & 3-\lambda \end{pmatrix} = (4-\lambda)(3-\lambda) - 2 = \lambda^2 - 7\lambda + 10 = 0$$ $$(\lambda - 5)(\lambda - 2) = 0 \implies \lambda_1 = 5, \; \lambda_2 = 2$$

2단계 (고유벡터):

$\lambda_1 = 5$: $(A - 5I)\mathbf{v} = \mathbf{0}$

$$\begin{pmatrix} -1 & 1 \\ 2 & -2 \end{pmatrix}\begin{pmatrix} v_1 \\ v_2 \end{pmatrix} = \mathbf{0} \implies v_1 = v_2 \implies \mathbf{v}_1 = t\begin{pmatrix} 1 \\ 1 \end{pmatrix}$$

$\lambda_2 = 2$: $(A - 2I)\mathbf{v} = \mathbf{0}$

$$\begin{pmatrix} 2 & 1 \\ 2 & 1 \end{pmatrix}\begin{pmatrix} v_1 \\ v_2 \end{pmatrix} = \mathbf{0} \implies v_2 = -2v_1 \implies \mathbf{v}_2 = t\begin{pmatrix} 1 \\ -2 \end{pmatrix}$$

고유값의 성질

고유값 문제 — 다양한 접근법

같은 행렬의 고유값을 특성방정식, 멱법(Power Method), QR 알고리즘의 세 가지 방법으로 구합니다.

$$A = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}$$

방법 1 — 특성방정식 (해석적 방법)

정확한 고유값을 대수적으로 구합니다.

$$\det(A - \lambda I) = \det\begin{pmatrix} 2-\lambda & 1 \\ 1 & 2-\lambda \end{pmatrix} = (2-\lambda)^2 - 1 = \lambda^2 - 4\lambda + 3 = 0$$ $$(\lambda - 3)(\lambda - 1) = 0 \implies \lambda_1 = 3, \; \lambda_2 = 1$$

$\lambda_1 = 3$의 고유벡터: $(A - 3I)\mathbf{v} = \mathbf{0}$ → $\begin{pmatrix}-1&1\\1&-1\end{pmatrix}\mathbf{v} = \mathbf{0}$ → $\mathbf{v}_1 = \begin{pmatrix}1\\1\end{pmatrix}$

$\lambda_2 = 1$의 고유벡터: $(A - I)\mathbf{v} = \mathbf{0}$ → $\begin{pmatrix}1&1\\1&1\end{pmatrix}\mathbf{v} = \mathbf{0}$ → $\mathbf{v}_2 = \begin{pmatrix}1\\-1\end{pmatrix}$

방법 2 — 멱법 (Power Method)

멱법은 최대 고유값과 그에 대응하는 고유벡터를 반복적으로 근사합니다. 초기 벡터 $\mathbf{x}_0 = \begin{pmatrix}1\\0\end{pmatrix}$에서 시작합니다.

반복 $k=1$:

$$\mathbf{y}_1 = A\mathbf{x}_0 = \begin{pmatrix}2&1\\1&2\end{pmatrix}\begin{pmatrix}1\\0\end{pmatrix} = \begin{pmatrix}2\\1\end{pmatrix}, \quad \lambda^{(1)} = 2, \quad \mathbf{x}_1 = \begin{pmatrix}1\\0.5\end{pmatrix}$$

반복 $k=2$:

$$\mathbf{y}_2 = A\mathbf{x}_1 = \begin{pmatrix}2.5\\2\end{pmatrix}, \quad \lambda^{(2)} = 2.5, \quad \mathbf{x}_2 = \begin{pmatrix}1\\0.8\end{pmatrix}$$

반복 $k=3$:

$$\mathbf{y}_3 = A\mathbf{x}_2 = \begin{pmatrix}2.8\\2.6\end{pmatrix}, \quad \lambda^{(3)} \approx 2.8, \quad \mathbf{x}_3 \approx \begin{pmatrix}1\\0.929\end{pmatrix}$$

반복을 계속하면 $\lambda^{(k)} \to 3$, $\mathbf{x}_k \to \begin{pmatrix}1\\1\end{pmatrix}$로 수렴합니다. 수렴 속도는 $|\lambda_2/\lambda_1| = 1/3$에 비례합니다.

방법 3 — QR 알고리즘 (개요)

QR 알고리즘은 모든 고유값을 동시에 구하는 반복법입니다.

  1. $A_0 = A$로 설정합니다.
  2. 각 단계에서 $A_k = Q_k R_k$ (QR 분해)를 수행합니다.
  3. $A_{k+1} = R_k Q_k$를 계산합니다.
  4. $A_k$가 (준)대각행렬로 수렴하면 대각 원소가 고유값입니다.

1단계 — QR 분해: $A_0 = \begin{pmatrix}2&1\\1&2\end{pmatrix}$

$$Q_0 = \frac{1}{\sqrt{5}}\begin{pmatrix}2&-1\\1&2\end{pmatrix}, \quad R_0 = \frac{1}{\sqrt{5}}\begin{pmatrix}\sqrt{5}&\frac{4}{\sqrt{5}}\\0&\frac{3}{\sqrt{5}}\end{pmatrix}$$

2단계: $A_1 = R_0 Q_0$를 계산하면 비대각 원소가 감소합니다. 반복하면 대각행렬 $\begin{pmatrix}3&0\\0&1\end{pmatrix}$로 수렴합니다.

비교: 특성방정식은 정확한 해를 주지만 5차 이상에서는 일반해 공식이 없습니다(아벨-루피니 정리). 멱법은 최대 고유값 하나만 구하지만 구현이 간단합니다. QR 알고리즘은 현대 수치선형대수의 표준이며 LAPACK 등 라이브러리의 핵심입니다.
고유벡터: 방향이 보존되는 특별한 벡터 변환 전 v₁ v₂ w A 적용 변환 후 3v₁ 1v₂ Aw 고유벡터(방향 보존, 크기만 변화) 일반 벡터(방향도 변화)

대각화

$n \times n$ 행렬 $A$가 대각화 가능(Diagonalizable)하다는 것은 가역행렬 $P$가 존재하여:

$$P^{-1}AP = D = \begin{pmatrix} \lambda_1 & & \\ & \ddots & \\ & & \lambda_n \end{pmatrix}$$

여기서 $P$의 열벡터는 고유벡터, $D$의 대각 원소는 고유값입니다.

대각화의 장점: $A = PDP^{-1}$이면 $A^k = PD^kP^{-1}$이므로 행렬의 거듭제곱 계산이 매우 쉬워집니다. $D^k$는 대각 원소를 $k$제곱하면 됩니다.

대각화 가능 조건

내적공간

내적공간(Inner Product Space)은 벡터 공간에 내적이 추가로 정의된 공간입니다.

내적의 공리

$V$ 위의 내적 $\langle \cdot, \cdot \rangle: V \times V \to F$는 다음을 만족합니다:

  1. $\langle \mathbf{v}, \mathbf{v} \rangle \geq 0$, 등호 ⟺ $\mathbf{v} = \mathbf{0}$ (양정치성)
  2. $\langle \mathbf{u}, \mathbf{v} \rangle = \overline{\langle \mathbf{v}, \mathbf{u} \rangle}$ (켤레 대칭성)
  3. $\langle a\mathbf{u} + b\mathbf{v}, \mathbf{w} \rangle = a\langle \mathbf{u}, \mathbf{w} \rangle + b\langle \mathbf{v}, \mathbf{w} \rangle$ (선형성)

코시-슈바르츠 부등식

$$|\langle \mathbf{u}, \mathbf{v} \rangle| \leq \|\mathbf{u}\| \cdot \|\mathbf{v}\|$$
양자컴퓨팅과 내적:

양자 상태는 보통 복소 벡터로 표현하므로 내적도 $\langle \mathbf{u}, \mathbf{v} \rangle = \sum u_i \overline{v_i}$ 꼴의 복소 내적을 사용합니다. 물리적으로 가능한 상태는 $\langle \psi, \psi \rangle = 1$을 만족하는 정규화된 벡터여야 하고, 어떤 기저 상태가 측정될 확률은 대응하는 내적의 절댓값 제곱으로 계산합니다. 이 점에서 양자컴퓨팅은 복소 내적공간의 대표적인 응용입니다.

직교화 — 3가지 방법 비교

벡터 $\mathbf{v}_1 = \begin{pmatrix}1\\1\\0\end{pmatrix}$, $\mathbf{v}_2 = \begin{pmatrix}1\\0\\1\end{pmatrix}$를 정규직교화하는 세 가지 방법을 비교합니다.

방법 1 — 그람-슈미트 과정 (Gram-Schmidt Process)

가장 고전적인 직교화 방법입니다.

1단계: $\mathbf{u}_1 = \mathbf{v}_1 = \begin{pmatrix}1\\1\\0\end{pmatrix}$

2단계: $\mathbf{v}_2$에서 $\mathbf{u}_1$ 방향 성분을 빼줍니다.

$$\mathbf{u}_2 = \mathbf{v}_2 - \frac{\langle \mathbf{v}_2, \mathbf{u}_1 \rangle}{\langle \mathbf{u}_1, \mathbf{u}_1 \rangle}\mathbf{u}_1 = \begin{pmatrix}1\\0\\1\end{pmatrix} - \frac{1}{2}\begin{pmatrix}1\\1\\0\end{pmatrix} = \begin{pmatrix}\frac{1}{2}\\-\frac{1}{2}\\1\end{pmatrix}$$

3단계 — 정규화:

$$\mathbf{e}_1 = \frac{\mathbf{u}_1}{\|\mathbf{u}_1\|} = \frac{1}{\sqrt{2}}\begin{pmatrix}1\\1\\0\end{pmatrix}, \quad \mathbf{e}_2 = \frac{\mathbf{u}_2}{\|\mathbf{u}_2\|} = \frac{1}{\sqrt{3/2}}\begin{pmatrix}\frac{1}{2}\\-\frac{1}{2}\\1\end{pmatrix} = \frac{1}{\sqrt{6}}\begin{pmatrix}1\\-1\\2\end{pmatrix}$$

방법 2 — 하우스홀더 반사 (Householder Reflection)

하우스홀더 변환은 벡터를 초평면에 대해 반사시켜 특정 성분을 0으로 만드는 방법입니다.

벡터 $\mathbf{a}$를 $\|\mathbf{a}\|\mathbf{e}_1$ 방향으로 반사하는 행렬:

$$H = I - 2\frac{\mathbf{u}\mathbf{u}^T}{\mathbf{u}^T\mathbf{u}}, \quad \mathbf{u} = \mathbf{a} - \|\mathbf{a}\|\mathbf{e}_1$$

$\mathbf{v}_1 = \begin{pmatrix}1\\1\\0\end{pmatrix}$에 적용하면:

$$\|\mathbf{v}_1\| = \sqrt{2}, \quad \mathbf{u} = \begin{pmatrix}1-\sqrt{2}\\1\\0\end{pmatrix}$$

$H_1\mathbf{v}_1 = \begin{pmatrix}\sqrt{2}\\0\\0\end{pmatrix}$이 되어 첫 번째 열이 정리됩니다. 이 과정을 나머지 열에 반복합니다.

하우스홀더의 장점: 그람-슈미트에 비해 수치적으로 안정합니다. 컴퓨터에서 대규모 QR 분해를 수행할 때 표준적으로 사용됩니다.

방법 3 — 기븐스 회전 (Givens Rotation)

기븐스 회전은 2차원 평면에서의 회전을 이용하여 행렬의 특정 원소를 0으로 만드는 방법입니다.

$$G(i,j,\theta) = \begin{pmatrix} \cdots & & & \\ & \cos\theta & \cdots & -\sin\theta & \\ & \vdots & \ddots & \vdots & \\ & \sin\theta & \cdots & \cos\theta & \\ & & & & \cdots \end{pmatrix}$$

$\mathbf{v}_1 = \begin{pmatrix}1\\1\\0\end{pmatrix}$의 $(1,2)$ 평면에서 $\tan\theta = v_{21}/v_{11} = 1$이므로 $\theta = 45°$:

$$G(1,2,45°)\mathbf{v}_1 = \begin{pmatrix}\sqrt{2}\\0\\0\end{pmatrix}$$

기븐스 회전은 희소행렬에서 특히 유리합니다. 0이 아닌 원소를 하나씩 제거할 수 있기 때문입니다.

3가지 직교화 비교:
방법복잡도수치 안정성적합한 상황
그람-슈미트$O(mn^2)$보통 (수정판은 양호)이론적 이해, 소규모 계산
하우스홀더$O(mn^2 - n^3/3)$우수밀집 행렬의 QR 분해 (표준)
기븐스$O(mn^2)$우수희소행렬, 병렬 계산

정사영의 다양한 계산법

벡터 $\mathbf{b} = \begin{pmatrix}1\\2\\3\end{pmatrix}$를 부분공간 $W = \text{Span}\left\{\begin{pmatrix}1\\0\\1\end{pmatrix}, \begin{pmatrix}0\\1\\1\end{pmatrix}\right\}$ 위로 정사영합니다.

방법 1 — 정사영 행렬

$A = \begin{pmatrix}1&0\\0&1\\1&1\end{pmatrix}$로 놓으면 정사영 행렬은:

$$P = A(A^T A)^{-1}A^T$$ $$A^T A = \begin{pmatrix}2&1\\1&2\end{pmatrix}, \quad (A^T A)^{-1} = \frac{1}{3}\begin{pmatrix}2&-1\\-1&2\end{pmatrix}$$ $$P = A \cdot \frac{1}{3}\begin{pmatrix}2&-1\\-1&2\end{pmatrix} \cdot A^T = \frac{1}{3}\begin{pmatrix}2&-1&1\\-1&2&1\\1&1&2\end{pmatrix}$$ $$\text{proj}_W \mathbf{b} = P\mathbf{b} = \frac{1}{3}\begin{pmatrix}2-2+3\\-1+4+3\\1+2+6\end{pmatrix} = \frac{1}{3}\begin{pmatrix}3\\6\\9\end{pmatrix} = \begin{pmatrix}1\\2\\3\end{pmatrix}$$

이 경우 $\mathbf{b}$가 $W$ 위에 있으므로 정사영이 자기 자신입니다.

방법 2 — 정규직교 기저를 이용

정규직교 기저 $\{\mathbf{e}_1, \mathbf{e}_2\}$가 있으면 정사영이 간단합니다.

$$\text{proj}_W \mathbf{b} = \langle \mathbf{b}, \mathbf{e}_1 \rangle \mathbf{e}_1 + \langle \mathbf{b}, \mathbf{e}_2 \rangle \mathbf{e}_2$$

그람-슈미트로 구한 정규직교 기저를 대입하면 됩니다. 정규직교 기저가 이미 있을 때 가장 빠른 방법입니다.

정사영과 오차 벡터 W O b projₖ b b - proj b 오차 벡터 (b - proj b)는 부분공간 W에 수직 → 최소 거리 보장

최소제곱법 — 3가지 풀이

과잉결정 시스템 $A\mathbf{x} \approx \mathbf{b}$의 최소제곱 해 $\hat{\mathbf{x}}$를 세 가지 방법으로 구합니다.

$$A = \begin{pmatrix} 1 & 1 \\ 1 & 2 \\ 1 & 3 \end{pmatrix}, \quad \mathbf{b} = \begin{pmatrix} 1 \\ 2 \\ 4 \end{pmatrix}$$

이 문제는 데이터 점 $(1,1), (2,2), (3,4)$에 직선 $y = \hat{x}_1 + \hat{x}_2 t$를 적합하는 선형 회귀입니다.

풀이 1 — 정규방정식 (Normal Equation)

$$A^T A \hat{\mathbf{x}} = A^T \mathbf{b}$$ $$A^T A = \begin{pmatrix}3&6\\6&14\end{pmatrix}, \quad A^T \mathbf{b} = \begin{pmatrix}7\\17\end{pmatrix}$$ $$\begin{pmatrix}3&6\\6&14\end{pmatrix}\hat{\mathbf{x}} = \begin{pmatrix}7\\17\end{pmatrix}$$

풀면: $\hat{x}_2 = \frac{3 \cdot 17 - 6 \cdot 7}{3 \cdot 14 - 36} = \frac{51 - 42}{42 - 36} = \frac{9}{6} = \frac{3}{2}$

$\hat{x}_1 = \frac{7 - 6 \cdot \frac{3}{2}}{3} = \frac{7 - 9}{3} = -\frac{2}{3}$

따라서 최적 직선은 $y = -\frac{2}{3} + \frac{3}{2}t$입니다.

풀이 2 — QR 분해

$A = QR$로 분해하면 정규방정식이 $R\hat{\mathbf{x}} = Q^T\mathbf{b}$로 단순화됩니다.

그람-슈미트로 $A$의 열을 직교화합니다.

$$\mathbf{q}_1 = \frac{1}{\sqrt{3}}\begin{pmatrix}1\\1\\1\end{pmatrix}, \quad \mathbf{q}_2 = \frac{1}{\sqrt{2}}\begin{pmatrix}-1\\0\\1\end{pmatrix}$$ $$R = \begin{pmatrix}\sqrt{3}&\frac{6}{\sqrt{3}}\\ 0 & \sqrt{2}\end{pmatrix}, \quad Q^T\mathbf{b} = \begin{pmatrix}\frac{7}{\sqrt{3}}\\\frac{3}{\sqrt{2}}\end{pmatrix}$$

후진대입으로 $R\hat{\mathbf{x}} = Q^T\mathbf{b}$를 풀면 동일한 결과를 얻습니다.

QR의 장점: 정규방정식에서 $A^T A$를 계산하면 조건수가 제곱되어 수치적 오차가 커질 수 있습니다. QR 분해는 $A^T A$를 직접 계산하지 않으므로 수치적으로 더 안정합니다.

풀이 3 — SVD (특잇값 분해)

$A = U\Sigma V^T$로 분해하면 최소제곱 해는:

$$\hat{\mathbf{x}} = V \Sigma^{+} U^T \mathbf{b}$$

여기서 $\Sigma^{+}$는 $\Sigma$의 의사역행렬(비영 특잇값의 역수를 취하고 전치)입니다.

SVD를 이용한 풀이는 $A$의 랭크가 부족한 경우에도 최소 노름 해를 자동으로 제공하므로 가장 범용적인 방법입니다.

3가지 최소제곱법 비교:
방법수치 안정성계산 비용랭크 부족 처리
정규방정식낮음 (조건수 제곱)$O(mn^2 + n^3)$불가 ($A^T A$ 특이)
QR 분해높음$O(mn^2)$피벗 QR로 가능
SVD가장 높음$O(mn^2 + n^3)$자동 처리 (최소 노름 해)

조르당 표준형 (Jordan Normal Form)

대각화가 불가능한 행렬도 조르당 표준형으로 변환할 수 있습니다. 모든 정사각행렬은 (복소수체 위에서) 가역행렬 $P$에 대해 $P^{-1}AP = J$인 조르당 행렬 $J$가 존재합니다.

조르당 블록

고유값 $\lambda$에 대응하는 $k \times k$ 조르당 블록은 다음과 같습니다.

$$J_k(\lambda) = \begin{pmatrix} \lambda & 1 & & \\ & \lambda & \ddots & \\ & & \ddots & 1 \\ & & & \lambda \end{pmatrix}$$

대각선에 $\lambda$, 초대각선에 1, 나머지는 0입니다.

예시

$A = \begin{pmatrix}5&4&2&1\\0&1&-1&-1\\-1&-1&3&0\\1&1&-1&2\end{pmatrix}$의 고유값이 $\lambda_1 = 1$ (대수적 중복도 2), $\lambda_2 = 4$ (대수적 중복도 2)이고, 각 고유값의 기하적 중복도가 1이면 조르당 표준형은:

$$J = \begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 4 & 1 \\ 0 & 0 & 0 & 4 \end{pmatrix}$$

조르당 표준형 구하는 절차

  1. 고유값 구하기: 특성다항식 $\det(A - \lambda I) = 0$을 풀어 고유값과 대수적 중복도를 구합니다.
  2. 기하적 중복도 구하기: 각 고유값 $\lambda_i$에 대해 $\dim(\ker(A - \lambda_i I))$를 계산합니다. 이것이 해당 고유값의 조르당 블록 개수입니다.
  3. 블록 크기 결정: $\text{rank}((A - \lambda_i I)^k)$를 $k=1,2,\ldots$에 대해 계산하여 블록 크기를 결정합니다.
  4. 일반화된 고유벡터 구하기: $(A - \lambda_i I)^k \mathbf{v} = \mathbf{0}$을 풀어 체인을 구성합니다.
조르당 표준형의 의미: 대각화가 "완벽한 분해"라면, 조르당 표준형은 "가능한 한 대각에 가깝게 만드는 것"입니다. 초대각선의 1은 고유벡터가 부족한 정도를 나타냅니다.

특잇값 분해 (SVD) 심화

SVD의 구성

임의의 $m \times n$ 행렬 $A$는 다음과 같이 분해됩니다.

$$\boxed{A = U \Sigma V^T}$$

SVD 계산 예시

$A = \begin{pmatrix}3&2\\2&3\end{pmatrix}$의 SVD를 구합니다.

1단계: $A^T A = \begin{pmatrix}13&12\\12&13\end{pmatrix}$의 고유값:

$$\lambda^2 - 26\lambda + 25 = 0 \implies \lambda_1 = 25, \; \lambda_2 = 1$$ $$\sigma_1 = 5, \quad \sigma_2 = 1$$

2단계: $V$의 열 (우특이벡터): $\mathbf{v}_1 = \frac{1}{\sqrt{2}}\begin{pmatrix}1\\1\end{pmatrix}$, $\mathbf{v}_2 = \frac{1}{\sqrt{2}}\begin{pmatrix}1\\-1\end{pmatrix}$

3단계: $U$의 열: $\mathbf{u}_i = \frac{1}{\sigma_i}A\mathbf{v}_i$ → $\mathbf{u}_1 = \frac{1}{\sqrt{2}}\begin{pmatrix}1\\1\end{pmatrix}$, $\mathbf{u}_2 = \frac{1}{\sqrt{2}}\begin{pmatrix}1\\-1\end{pmatrix}$

$$A = \frac{1}{\sqrt{2}}\begin{pmatrix}1&1\\1&-1\end{pmatrix}\begin{pmatrix}5&0\\0&1\end{pmatrix}\frac{1}{\sqrt{2}}\begin{pmatrix}1&1\\1&-1\end{pmatrix}$$

기하학적 의미 — 회전-신축-회전

SVD의 기하학적 해석: 선형변환 $A$는 다음 세 단계로 분해됩니다.

  1. $V^T$ — 회전: 입력 공간의 좌표계를 정렬합니다.
  2. $\Sigma$ — 신축: 각 축 방향으로 $\sigma_i$배만큼 늘이거나 줄입니다.
  3. $U$ — 회전: 출력 공간의 좌표계를 정렬합니다.

단위원이 SVD에 의해 타원으로 변환되며, 특잇값은 타원의 반축 길이가 됩니다.

SVD의 기하학적 의미: 단위원 → 타원 단위원 Vᵀ 회전 정렬된 원 Σ 신축 σ₁ σ₂ 축 정렬 타원 U 회전 최종 타원

SVD의 응용

선형변환의 행렬 표현과 기저 변환

기저에 따른 행렬 표현

선형변환 $T: V \to V$의 행렬 표현은 기저의 선택에 따라 달라집니다. 기저 $\beta = \{\mathbf{v}_1, \ldots, \mathbf{v}_n\}$에 대한 $T$의 행렬을 $[T]_\beta$로 쓰면:

$$[T(\mathbf{v}_j)]_\beta = [T]_\beta \cdot [\mathbf{v}_j]_\beta$$

$[T]_\beta$의 $j$번째 열은 $T(\mathbf{v}_j)$를 기저 $\beta$로 표현한 좌표입니다.

기저 변환 행렬

기저 $\beta$에서 기저 $\beta'$로의 변환행렬을 $P$라 하면:

$$[T]_{\beta'} = P^{-1} [T]_\beta P$$

이것이 닮음 변환(Similarity Transformation)입니다. 닮은 행렬은 같은 선형변환의 서로 다른 기저에 대한 표현입니다.

핵심 통찰: 대각화 $P^{-1}AP = D$는 기저를 고유벡터 기저로 바꾸는 것입니다. 고유벡터 기저에서 선형변환은 각 축 방향의 단순한 신축이 되므로 대각행렬로 표현됩니다.

예시

$T: \mathbb{R}^2 \to \mathbb{R}^2$가 표준 기저 $\epsilon$에서 $[T]_\epsilon = \begin{pmatrix}2&1\\1&2\end{pmatrix}$일 때, 기저 $\beta = \left\{\begin{pmatrix}1\\1\end{pmatrix}, \begin{pmatrix}1\\-1\end{pmatrix}\right\}$에서의 행렬을 구합니다.

$P = \begin{pmatrix}1&1\\1&-1\end{pmatrix}$, $P^{-1} = \frac{1}{2}\begin{pmatrix}1&1\\1&-1\end{pmatrix}$

$$[T]_\beta = P^{-1}[T]_\epsilon P = \frac{1}{2}\begin{pmatrix}1&1\\1&-1\end{pmatrix}\begin{pmatrix}2&1\\1&2\end{pmatrix}\begin{pmatrix}1&1\\1&-1\end{pmatrix} = \begin{pmatrix}3&0\\0&1\end{pmatrix}$$

고유벡터 기저를 선택하면 행렬이 대각화됩니다.

텐서곱 개요

텐서곱(Tensor Product)은 두 벡터 공간을 결합하여 더 큰 벡터 공간을 만드는 연산입니다.

정의

벡터 공간 $V$와 $W$의 텐서곱 $V \otimes W$는 다음 성질을 만족하는 보편적 쌍선형 사상에 의해 정의됩니다.

차원

$\dim(V) = m$, $\dim(W) = n$이면 $\dim(V \otimes W) = mn$입니다.

$V$의 기저 $\{\mathbf{e}_i\}$와 $W$의 기저 $\{\mathbf{f}_j\}$에 대해 $\{\mathbf{e}_i \otimes \mathbf{f}_j\}$가 $V \otimes W$의 기저가 됩니다.

행렬로 본 텐서곱 (크로네커 곱)

행렬 $A \in M_{m \times n}$, $B \in M_{p \times q}$의 크로네커 곱은 $mp \times nq$ 행렬입니다.

$$A \otimes B = \begin{pmatrix} a_{11}B & a_{12}B & \cdots \\ a_{21}B & a_{22}B & \cdots \\ \vdots & \vdots & \ddots \end{pmatrix}$$

예시:

$$\begin{pmatrix}1&2\\3&4\end{pmatrix} \otimes \begin{pmatrix}0&1\\1&0\end{pmatrix} = \begin{pmatrix}0&1&0&2\\1&0&2&0\\0&3&0&4\\3&0&4&0\end{pmatrix}$$
텐서곱의 응용: 양자역학에서 복합 시스템의 상태 공간은 각 부분 시스템 상태 공간의 텐서곱으로 표현됩니다. 2큐비트 시스템은 $\mathbb{C}^2 \otimes \mathbb{C}^2 = \mathbb{C}^4$에서 기술됩니다.
텐서곱과 양자 얽힘:

예를 들어 $\left(\frac{|0\rangle + |1\rangle}{\sqrt{2}}\right) \otimes |0\rangle = \frac{|00\rangle + |10\rangle}{\sqrt{2}}$는 각 큐비트를 따로 적을 수 있는 상태입니다. 반면 $\frac{|00\rangle + |11\rangle}{\sqrt{2}}$는 이런 곱으로 분해할 수 없습니다. 이런 상태를 얽힘이라 하며, 양자컴퓨팅의 수학에서 더 자세히 봅니다.

응용 — 페이지랭크, PCA, 마르코프 체인

구글 페이지랭크 (PageRank)

웹의 $n$개 페이지를 노드로, 하이퍼링크를 간선으로 표현합니다. 페이지 $j$가 $L_j$개의 링크를 가지고 있고 그 중 하나가 페이지 $i$로 간다면 전이행렬의 원소는:

$$M_{ij} = \frac{1}{L_j}$$

감쇠인자(damping factor) $d$를 포함한 페이지랭크 공식:

$$\boxed{\mathbf{r} = \frac{1-d}{n}\mathbf{1} + d \cdot M\mathbf{r}}$$

$\mathbf{r}$은 전이행렬 $\hat{M} = \frac{1-d}{n}\mathbf{1}\mathbf{1}^T + dM$의 최대 고유값 1에 대응하는 고유벡터입니다. 멱법을 적용하여 반복적으로 수렴시킵니다.

간단한 예시 (3개 페이지):

페이지 A는 B, C로, B는 A로, C는 A로 링크합니다.

$$M = \begin{pmatrix} 0 & 1 & 1 \\ \frac{1}{2} & 0 & 0 \\ \frac{1}{2} & 0 & 0 \end{pmatrix}$$

$d = 0.85$로 멱법을 적용하면 페이지 A의 랭크가 가장 높게 나옵니다 (가장 많은 인링크를 받으므로).

주성분 분석 (PCA)

$n$개의 데이터 포인트가 $p$차원인 데이터 행렬 $X$ ($n \times p$)에서 주성분을 추출합니다.

  1. 중심화: 각 열의 평균을 빼서 $\bar{X}$를 만듭니다.
  2. 공분산 행렬: $C = \frac{1}{n-1}\bar{X}^T\bar{X}$를 계산합니다.
  3. 고유값 분해: $C = V\Lambda V^T$ (또는 $\bar{X}$의 SVD를 이용).
  4. 차원 축소: 상위 $k$개 고유벡터(주성분)를 선택하여 $Y = \bar{X}V_k$로 투영합니다.

제1주성분은 데이터의 분산을 최대화하는 방향이며, 각 주성분은 서로 직교합니다.

PCA와 SVD의 관계: $\bar{X} = U\Sigma V^T$일 때, 공분산 행렬의 고유벡터는 $V$의 열이고, 고유값은 $\sigma_i^2/(n-1)$입니다. 따라서 SVD로 PCA를 직접 수행할 수 있으며, $\bar{X}^T\bar{X}$를 명시적으로 계산하지 않아도 됩니다.

마르코프 체인 (Markov Chain)

유한 상태를 가지는 확률 과정에서 전이확률행렬 $P$의 각 원소 $p_{ij}$는 상태 $j$에서 상태 $i$로 이동할 확률입니다.

$$P = \begin{pmatrix} 0.7 & 0.4 \\ 0.3 & 0.6 \end{pmatrix}$$

$P$는 열 확률행렬(각 열의 합이 1)이며, 정상 분포 $\boldsymbol{\pi}$는 다음을 만족합니다.

$$P\boldsymbol{\pi} = \boldsymbol{\pi}, \quad \sum_i \pi_i = 1$$

이는 고유값 $\lambda = 1$에 대응하는 고유벡터를 구하는 문제입니다.

$$(P - I)\boldsymbol{\pi} = \mathbf{0} \implies \begin{pmatrix}-0.3&0.4\\0.3&-0.4\end{pmatrix}\boldsymbol{\pi} = \mathbf{0}$$

$\pi_2 = \frac{3}{4}\pi_1$이고 $\pi_1 + \pi_2 = 1$이므로: $\boldsymbol{\pi} = \begin{pmatrix}4/7\\3/7\end{pmatrix}$

마르코프 체인과 선형대수: 마르코프 체인의 장기적 행동은 전이행렬의 스펙트럼(고유값과 고유벡터)에 의해 결정됩니다. 정상분포는 고유값 1에 대한 고유벡터이고, 수렴 속도는 두 번째로 큰 고유값 $|\lambda_2|$에 의해 결정됩니다.
마르코프 체인 전이 다이어그램 상태 1 π=4/7 상태 2 π=3/7 0.3 0.4 0.7 0.6

참고자료