본문 바로가기

딥러닝관련94

다항 회귀 (polynomial regression) Polynomial Regression(다항 회귀) 다항... 다항.... 다항의 의미는 한 개 이상의 항의 합으로 이루어진 식 이라고 표현한다. https://ko.wikipedia.org/wiki/%EB%8B%A4%ED%95%AD%EC%8B%9D 다항식 - 위키백과, 우리 모두의 백과사전 수학에서, 다항식(多項式, 문화어: 여러마디식, 영어: polynomial)은 한 개 이상의 항의 합으로 이루어진 식이다. 즉, 단항식의 결합(덧셈과 뺄셈)으로 이루어진 식이다. 예를 들어, x2 - 2x + 3, 4x3, 5xy + ko.wikipedia.org 기존에 보았던 식이 단항식 (y = ax) 와 같았다면 다항식은 여러 단항식의 조합으로 볼 수 있다. (보통 다항 회귀에서는 2차.. 3차 n차 항까지 표.. 2022. 2. 21.
Mini-batch Gradient Descent(미니배치 경사 하강법) 2022.02.20 - [딥러닝관련/기초 이론] - Stochastic gradient descent(확률적 경사 하강법) Stochastic gradient descent(확률적 경사 하강법) 2022.02.20 - [딥러닝관련/기초 이론] - 경사 하강법(Gradient Descent) 경사 하강법(Gradient Descent) 2022.01.24 - [딥러닝관련/기초 이론] - 선형 회귀 (Linear Regression) 선형 회귀 (Linear Regression) 선.. better-tomorrow.tistory.com 위 글로부터 이어짐 Mini-batch gradient descent(미니배치 경사 하강법) (사실 이 방법이 실제 환경에서 제일 많이 쓰인다.) 간단하게 표현하면 아래와 같.. 2022. 2. 20.
Stochastic gradient descent(확률적 경사 하강법) 2022.02.20 - [딥러닝관련/기초 이론] - 경사 하강법(Gradient Descent) 경사 하강법(Gradient Descent) 2022.01.24 - [딥러닝관련/기초 이론] - 선형 회귀 (Linear Regression) 선형 회귀 (Linear Regression) 선형 회귀 모델 선형 회귀(Linear Regression)의 의미 수많은 점들을 설명할 수 있는 선을 그으려면 어떻게.. better-tomorrow.tistory.com 위 글에서 이어진다. Batch Gradient Descent의 단점 이전 글에서 알아보았던 batch gradient descent의 가장 큰 문제는 무엇일까? 매 step마다 전체 데이터 셋을 사용해 gradient를 계산한다는 것이다. 당연하게도 .. 2022. 2. 20.
경사 하강법(Gradient Descent) 2022.01.24 - [딥러닝관련/기초 이론] - 선형 회귀 (Linear Regression) 선형 회귀 (Linear Regression) 선형 회귀 모델 선형 회귀(Linear Regression)의 의미 수많은 점들을 설명할 수 있는 선을 그으려면 어떻게 해야 할까? 간단한 선형 회귀 모델 $$\textcolor{red}{\text{삶의 만족도} = θ_{0} + θ_{1} * \text{1.. better-tomorrow.tistory.com 본 글은 위로부터 이어짐 - 중요한 내용이라 따로 뺌 (책 내용 뿐 아니라 추가적인 내용도 취합하여 정리) RMSE를 최소화하는 θ를 찾는 방법 2. 경사하강법(Gradient Descent) 여러 종류의 문제에서 최적의 해법을 찾을 수 있는 일반적인 최.. 2022. 2. 20.