공부하다가 선형 비선형 얘기가 자주 나와 어렴풋이 알고 있던 걸 정리해보고자 한다.
< 선형(linear) >
이름에서도 알 수 있듯이 line 즉, 선형적이라는 것은 선과 관련 있다.
이는 직선처럼 똑바른 도형, 또는 그와 비슷한 성질을 갖는 대상을 뜻한다.
이러한 성질을 갖고 있는 변환에 대하여 쓰는 용어
함수의 경우,
어떠한 함수가 진행하는 모양이 '직선'이라는 의미로도 사용.
선형은 어느 정도 예측이 가능
선형성(linearity)에 대한 정의는 다음와 같음
ex), 1차 함수의 경우
--> 원점을 지날 경우에 선형성을 가진다.
f(x) = 2x라고 가정하면
f(1+2) = f(1) + f(2) = 6이 성립하지만
f(x) = 2x + 1 이라고 가정하면
f(1) + f(2) = 8
f(3) = 7
로써 선형성이 성립하지 않는다.
< 비선형(non-linear) >
비선형은 출력의 변화가 입력의 변화에 비례하지 않는 성질.
독립변수와 종속변수 사이에 직선 또는 직접적인 관계가 없는 상황을 설명하기 위해 사용되는 용어.
[선형 관계]
그래프에 그릴 때 직선 모양을 생성.
[비선형 관계]
직선 대신 곡선을 생성.
연구하다보면 위에 예시든 것처럼 2x + 1 과 같이 선형성을 가지고 있지 않은 것도 선형으로 처리하는 것 같은데,
찾아보니 이는 독립 변수와 종속 변수가 선형 관계라서 그렇다고 한다.
이에 대해서도 따로 정리해봐야겠다.
참조
https://ko.wikipedia.org/wiki/%EC%84%A0%ED%98%95%EC%84%B1
https://en.wikipedia.org/wiki/Nonlinear_system
https://www.investopedia.com/terms/n/nonlinearity.asp
'딥러닝관련 > 기초 이론' 카테고리의 다른 글
Transformer 정리 (0) | 2021.11.09 |
---|---|
seq2seq, attention 정리 (0) | 2021.11.08 |
Squeeze-and-Excitation Networks(SENET) (0) | 2021.10.19 |
신경망 정리 (학습 관련 기술들 - optimizer) (0) | 2021.08.16 |
신경망 정리 10-2 (오차 역전파 활성화 함수 계층 구현, Sigmoid) (0) | 2021.07.19 |