목록수업 (6)
운동하는 공대생

이전까지 이제 hypothesis function을 구성하는 parameter들을 MSE(Mean Squared Error)를 통해서 Error를 구하고 Cost Function 또 구성하는 parameter를 Least Square 방식을 통해서 구하는 거에 대하여 공부했다. 이번에는 Gradient Descent 방식을 통해서 구하는 것에 대하여 정리하겠다. 1. Gradient Descent 기본적인 프로세스는 cost function에서 일정 파라미터에 대하여 특정 시작점을 지정하고 점점 이동하면서 목표로 하는 지점까지 이동하는 방식이다. 한국어로 해석하면 경사하강법이라고 이야기를 한다. 식을 통해서 알 수 있듯이 파라미터의 값을 일정 gradient 값과 알파 값을 곱한 값을 빼서 파라미터를 업..

Linear Regression에서 기본적인 프로세스는 1. Hypothesis를 지정 2. Model train 3. 예측 이렇게 구성이 된다. 모델에 대한 함수를 지정하고 데이터를 기반으로 함수에 대한 파라미터를 정해나가는 방식이라고 생각할 수 있다. 1. 용어 정리 먼저 데이터의 구성이 1차원이라고 가정을 한다면 x : input feature(입력 데이터) y : target variable(목표 변수) (x, y) : 훈련 데이터 (x(i), y(i)) : i번째 훈련 데이터 2. Error Error 란 모델이 예측한 값과 실제값의 차이를 Error 혹은 Cost라고 한다. 그리서 이런 값들을 최소화하는 게 모델 훈련의 목적이라고 이야기를 할 수 있다. 그렇다면 이런 Error를 구하는 방식은..

1. Logistic regression Logistic regression 은 classification 에서의 모델의 한 종류로서 sigmoid 함수를 이용한 방식으로 결과를 [0,1] 사이의 값으로 반환하여서 classification 을 수행하는 방식이다. LSE 방식은 예측값과 결괏값 0 , 1 의 차이를 통해서 에러를 계산하고 MLE 방식에서는 0일 확률과 1에서 0일 확률을 뺀 1일 확률을 기준으로 확률값으로 에러를 계산한다. 2. Binary Classification Binary Classification 에서는 기본적인 함수와 w0 bias 와 같이 구성되어 있다. classification 에서는 그래프에서 표시되는 hyperplain이 그 데이터의 값을 표시하거나 하는것이 아니라 데..

1. Linear Basis Function Models 이전까지는 모델에 대하여 단지 다항함수로만 표현을 했지만 이것을 통합적으로 표현 가능한 수식이 존재한다. 여기서 parameter값이 w를 제외한 함수를 basis 함수라고 이야기한다. 다항함수로 구성된 basis 함수를 M 값에 따라서 다양하게 표현이 가능하고 이는 matrix의 형식으로 표현한다. 기본 식에서 basis function 이 이제 일반적인 다항함수 일 때의 모습을 왼쪽 그림으로 표현이 가능하다. 가우시안을 따르는 basis function은 uj의 값에 따라서 위치만 이동할 뿐 모양을 일정하다. 하지만 uj와 s는 각각 하이퍼 파라미터로서 가각 위치와 스케일을 지정한다. 이렇게 값을 구분하는 basis function 을 지정하는..

이전까지 이제 Error를 구하는 함수 objective function과 그리고 그 함수를 최소화하는 gradient descent 방식에 대하여 알아보았다. 1. Polynomial curve fitting 위의 그림처럼 각 예측하는 함수를 구성할때 다항함수를 이용할 때 차수를 늘리면 발생하는 문제들을 볼 수 있다. 차수가 너무 낮아 모델이 단순하면 첫 번째 그림처럼 모들 데이터들을 구분하기가 어렵다. 그리고 너무 차수가 높으면 과적합 문제인 overfitting이 발생한다. 2. Overfitting , Unterfitting 이제 2가지 가정을 하고 예시를 통해서 이해를 해보자. 가정 1: 먼저 Error를 계산하는 함수는 RMS(Root-Mean-Square) Error 함수로 지정한다. 이는 ..

1. Linear Regression house price를 예시로 데이터 포인트를 좌표 평면상에 표시를 한다면 linear 함수로 표현하는 게 가능하다. h(x) = 𝛳0 + 𝛳1X1 이렇게 1차함수로 표시가 가능하다. => 여기서 𝛳0, 𝛳1 이 함수 모델의 형태를 결정하는 "parameters"라고 이야기한다. 그리고 input 하는 데이터나 parameter의 표현은 벡터로 표시한다. 위에서는 input 하는 x 의 데이터의 수가 multiple 한 상화에 대한 식이다. 여기서 이 linear 함수 h(x)는 데이터 포인트의 input 값들(x1, x2, x3)과 파라미터들을 기준으로 값이 판명된다. 여기서 x0=1차원이 항상 존재하면 𝛳0의 파라미터를 bias라고도 한다. 목표: 데이터 포인트를..