주요 개념분류 알고리즘로지스틱 회귀(Logistic Regression)비용 함수 or 손실 함수(Cost Function or Loss Function)이진 교차 엔트로피(Binary Cross Entropy)경사 하강법(Gradient Descent)지역 최소(Local Minimum) 로지스틱 회귀(Logistic Regression) 로지스틱 회귀(Logistic Regression)는 범주형 변수를 예측하기 위해 설계된 알고리즘으로 선형 회귀 모델을 변형하여 확률 기반의 예측을 수행한다. 주로 이진 분류(binary classification) 문제에 사용되지만 다중 범주형 변수도 예측할 수 있다. 예를 들어 "합격/불합격", "스팸/비스팸", "긍정/부정"과 같은 이진 분류 문제 외에도 다중 ..
주요 개념다항 회귀(Polynomial Regression)비선형 데이터편향(Bias)분산(Variance) 다항 회귀(Polynomial Regression)란 비선형 데이터를 학습하기 위해 선형 모델을 사용하는 기법이다. 단순 선형 회귀(SLR)를 이용해 모든 데이터의 관계성을 직선으로 표현할 수는 없으므로 다항 회귀 또는 다중 선형 회귀(MLR) 등과 같은 조금 더 복잡한 회귀 모델이 때에 따라 최적의 회귀선을 나타내고는 한다. 각 변수의 거듭제곱을 새로운 변수로 추가하고 이 확장된 변수를 포함한 데이터셋에 선형 모델을 훈련시킨다. 다중 선형 회귀는 여러 독립 변수들이 필요한 반면 다항 회귀는 하나의 독립 변수에 대한 차수를 확장해가며 단항식이 아닌 2차, 3차 등의 회귀 모델을 도출한다. 다만 주..
주요 개념단순 선형 회귀(SLR)다중 선형 회귀(Multiple Linear Regression, MLR)경사 하강법(Gradient Descent) 다중 선형 회귀(Multiple Linear Regression, MLR)는 단순 선형 회귀(SLR)와 달리 여러 입력변수가 들어간다. 따라서 다중 선형 회귀는 시각적으로 표현하기 힘들다. 하지만 시각화만 못할 뿐이지 기본 개념은 이전과 같다. 다중 선형 회귀를 이용해 도출되는 방정식은 아래와 같다.$$ f(x)=w_{n}x_{n}+w_{n-1}x_{n-1}+...+w_2x_2+w_1x_1+b $$늘어난 입력 변수와 그에 따른 가중치의 개수가 늘어난 것 외에 큰 차이는 없다. 단지 입력 변수가 많은 일차 함수일 뿐이다. 결국 최적의 가중치와 편향 값을 경사..
주요 개념상관관계 분석(correlation analysis)회귀 분석(Regression Analysis)선형 회귀(Linear Rregression) 대표적인 데이터 분석 방법으로 예측에 이용되는 회귀 분석(Regression Analysis)과 상관계수를 이용한 상관관계 분석(Correlation analysis)이 있다.연속형 또는 순위 자료로 이루어진 두 변수간 상호 관계 정도를 알아보고자 할 때는 상관관계 분석(correlation analysis)을 이용두 변수간 인과 관계와 같이 한 변수가 다른 변수에 주는 영향력을 알아보고자 할 때는 회귀 분석법(regression analysis)을 이용 그중 선형 회귀(Linear Rregression)는 종속 변수 y와 한 개 이상의 독립 변수 x와..
회귀분석을 하며 여러 모델들을 만들고 실제 성능이 어느정도인지 판단하기 위한 지표들이 필요하다.위 9가지 방식의 특징을 알아보려 한다. 아래 수식들의 n은 모두 데이터 수를 의미한다. 1. ME(Mean of Error)ME(Mean of Error)는 평균 제곱 오차를 의미한다. 예측오차의 산술평균을 의미하고 다음과 같이 산정된다. $$ ME=\frac{\sum_{i=1}^n{e_i}}{n}=\frac{\sum _{i=1}^n\left(Y_i-\hat{Y_i}\right)}{n} $$ def ME(y, t): return (y-t).mean(axis=None) 2. MAE(Mean Absolute Error)MAE(Mean Absolute Erro)는 예측값과 실제값의 모든 차이의 합이다. 인간이..
최소 자승법(LSM or OLS)최소 제곱법, 최소 자승법, Least Square Method(LSM), Ordinary Least Square(OLS) 모두 같은 말이다. 최소자승법(Least Square Method)은 모델의 파라미터를 구하기 위한 대표적인 방법 중 하나로서 모델과 데이터와의 잔차(residual) 제곱 합 또는 평균을 최소화하도록 파라미터를 결정하는 방법이다.가장 간단한 관계식 \(f(x) = \beta x+\alpha\)이고, \( y_i = \alpha+\beta x_i+u_i \)가 있다고 가정한다. 위의 그래프 주어진 데이터 산포도를 그리고 임의의 회귀식(y=x, y=x+2, y=2x+1)을 그래프에 그린 것이다. 이 중 y+2를 기준으로 설명하자면 따라서 \( \alp..