운동하는 공대생
Regression(회귀) - Gradient Descent(경사 하강법) 본문
728x90
반응형
What is Gradient Descent
이전 글에서 이야기했지만 회귀 분야에서 예측값과 실제값의 차이, 즉 비용을 최소화해주는 게 가장 중요하다. 이때 이 비용 값을 최소화해주는 방식이 Gradient Descent(경사 하강법)이다.
이 이론이 등장한 배경은 직관적인 단순 선형 회귀가 아닌 함수상으로 생각하기 어려운 다중으로 종속변수가 존재하는 상황에서는 RSS 비용 값을 최소화하기 위해서 데이터를 기반으로 알고리즘을 학습하는 이 방식이 등장하게 되었다.
수학 공식은..... 생략..ㅎㅎ
출처: https://angeloyeo.github.io/2020/08/16/gradient_descent.html
위의 동영상을 참조하면 처음 초기 값에서 RSS 비용 함수의 비용 값이 큰 상황의 함수가 있다. 이때 이 비용 값을 최소화해아하니 점점 기울기를 줄여서 RSS비용 값이 최소가 되는 지점을 찾는다.
728x90
반응형
'Machine Learning' 카테고리의 다른 글
Data Preprocessing(데이터 전처리)-Label encoding(레이블 인코딩),One-Hot encoding(원-핫 인코딩) (0) | 2022.11.22 |
---|---|
Regression(회귀)-다항 회귀와 과적합/과소적합 이해 (0) | 2022.11.15 |
Regression(회귀) Theory (0) | 2022.11.04 |
MLOps 이란? (0) | 2022.10.26 |
Synthetic Data(합성 데이터) (0) | 2022.10.14 |
Comments