본문 바로가기
딥러닝관련/기초 이론

Norm

by 머리올리자 2021. 2. 6.

종종 vector의 크기를 측정해야 할 때가 있습니다.

 

일반적으로 기계 학습에서는 벡터의 크기를 norm(노름) 이라고 부르는 함수를 이용해서 측정 합니다.

\(L^p\)  로 표기하는 norm의 정의는 다음과 같습니다.

 

출처 : 위키피디아
출처 : https://namu.wiki/w/%EB%85%B8%EB%A6%84(%EC%88%98%ED%95%99)

 

직관적으로 벡터 \(x\)의 norm은 원점에서 점 \(x\)까지의 거리를 의미합니다.

 

\begin{bmatrix} 1 \\ 1 \\ 1 \end{bmatrix}

 

만약 위와 같은 벡터가 있다고 가정을 해보겠습니다.

 

그렇다면 이 벡터의 차원은 3 입니다. 차원이 3이라는 것은 3차원 공간에 이 벡터를 그릴 수 있다는 말입니다.

 


L1 norm

 

출처 : https://namu.wiki/w/%EB%85%B8%EB%A6%84(%EC%88%98%ED%95%99)

(\(L_1 norm\) 은 Manhattan norm 또는 Taxicab norm 이라고도 불려집니다. )

\(L_1 norm\)은 벡터의 모든 성분의 절대값을 더하는 것으로 계산합니다.

\begin{bmatrix} 3 \\ 4 \end{bmatrix}

 

예를 들어 위와 같은 벡터가 있다면

 

\(L_1 norm\)은 7이 됩니다.

 

\(||x||_1 = |3| + |4| = 7\)

 

위 distance를 아래 그림과 같이 표현할 수 있습니다.

출처 : https://montjoile.medium.com/l0-norm-l1-norm-l2-norm-l-infinity-norm-7a7d18a4f40c

 


L2 norm

 

출처 : https://namu.wiki/w/%EB%85%B8%EB%A6%84(%EC%88%98%ED%95%99)

\(p=2\) \(L^2\) norm은 유클리드 norm(Euclidean norm)이라고 불리며, 유클리드 norm은 원점에서 \(x\)에 해당하는 점까지의 유클리드 거리 입니다.

 

\(||x||_2 = \sqrt{3^2 + 4^2} = \sqrt{25} = 5\)

 

위 distance를 아래 그림과 같이 표현할 수 있습니다.

 

출처 : https://montjoile.medium.com/l0-norm-l1-norm-l2-norm-l-infinity-norm-7a7d18a4f40c

 

출처

책 심층학습(http://www.yes24.com/Product/Goods/65576412)
blueskyvision.tistory.com/825

montjoile.medium.com/l0-norm-l1-norm-l2-norm-l-infinity-norm-7a7d18a4f40c

'딥러닝관련 > 기초 이론' 카테고리의 다른 글

고유값 분해 (eigen decomposition)  (0) 2021.03.10
Orthogonal (직교) vector  (0) 2021.02.07
Representation  (0) 2020.07.07
Batch Normalization  (0) 2020.07.06
왜 딥러닝(deep learning) 이라고 하는가  (0) 2020.07.01