You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
변수들간의 함수관계를 추구하는 통계적 방법을 회귀분석이라고 부른다.
회귀라는 말은 영국의 우생학자 F.Galton 이 처음으로 불렀다고 한다.
그는 아버지의 신장(키)과 아들의 신장의 관계를 조사했다. 그리고 아들들의 신장은
인간 전체의 평균 신장에 되돌아가려는 경향이 있다는걸 밝혔다. 이러한 함수관계를
'regression' 이라는 용어로 처음 표현한 사람이 F.Galton 이고 유래가 되었다.
먼저 제일 간단한 경우에 해당하는 선형관계에 관한 분석을 다뤄보자.
광고가 상품 판매량에 미치는 관계를 알아보기 위해 10개의 상점 표본(sample)을
추출하여 아래와 같이 표로 정리했다.
여기서 변수 x는 광고료고 y는 총판매액이다.
이 상황에서 단순회귀모형을 표현하면 다음과 같다.
$$y_i = \beta_0 + \beta_1 + \epsilon_i$$
갑자기 수식이 나와서 이게 뭔가 싶지만 하나씩 살펴보면 크게 어려운것은 없다.
수식에 대해 알아보기 전에 먼저 우리가 뭘 하고자 하는지 명확하게 짚고 넘어갈 필요가 있다.
우리는 주어진(위의 10개 샘플) 값을 이용해 10개 값들을 대표할 선형식을 구하고자 한다.
다시말해 1차함수 $$y=ax+b$$ 에서 a와 b를 구하고 싶은거다. 그리고 a는 기울기, b는 절편이다.
주어진 샘플을 이용해 회귀선(아까 말한 1차함수)을 구하면 그 추정치를 통해 다음을 예측할 수 있다.
다시 단순회귀모형으로 돌아와서 하나씩 자세히 살펴보자.
$$y_i = \beta_0 + \beta_1 + \epsilon_i$$
$$x_i$$ : i번째 주어진 고정된 x 값 $$y_i$$ : i번째 측정된 y의 값 $$\beta_0, \beta_1$$ : 모집단의 회귀계수 $$\epsilon_i$$ : i 번째 측정된 y의 오차항으로 epsilon 이라고 읽는다. 확률분포는 $$N(0,\sigma^2)$$ 이며, 다른 오차항과는 상관관계가 없다.
여기서 $$\epsilon_i$$ 에 대해서 좀 더 자세히 짚고 넘어가자. 먼저 왜 오차의 확률분포가 정규분포일까?
답은 단순하다. 정규분포 자체가 원래 오차에 대한 확률분포다. 정규분포는 여러 수학자에 의해 각기 다른 방식으로
연구되었지만 가우스의 경우 천제 관측 시 발생하는 오차의 성질을 연구하던 중 정규분포를 발견했다.
$$y = \mu_{y*x} + \epsilon$$
$$\mu_{y*x}$$
회귀선의 추정
표본 자료(sample data)로부터 선형식을 추정하여 얻은 직선을 다음과 같이 표기한다. $$\hat y = b_0 + b_1x$$
이와 같은 직선을 회귀직선 또는 회귀선이라고 부른다. 여기에서 $$b_0, b_1, \hat y$$ 는 각각
$$\beta_0, \beta_1, \mu_{y*x}$$ 의 추정값(estimate) 이다.
최소 제곱법
$$y_i = \beta_0 + \beta_1 + \epsilon_i$$ 식에서 오차제곱들의 합은 다음과 같다.
이 $$S$$를 최소로 하는 $$\beta_0, \beta_1$$ 값을 구하는 방법이 최소제곱법이다.
$$\beta_0, \beta_1$$ 각각을 편미분해야 한다.
먼저 $$\beta_0$$ 편미분 해보자. $$\beta_0$$ 로 미분하고 나머지는 상수로 취급한다. $$\partial S \over \partial\beta_0 $$
$$\sum_{i=1}^n(-\beta_0+ A_i)^2 $$ : $$\beta_0$$ 만 미분하고 나머지는 상수로 취급하니까
나머지를 $$A_i$$ 로 치환했다($$A_i = y_i - \beta_1x_i$$).
시그마는 마지막에 추가해주면 되니까 $$(-\beta_0+ A_i)(-\beta_0+ A_i)$$ 를 미분해야 한다.
cf) $$f(x)g(x)$$ 미분은 $$f^\prime(x)g(x) + f(x)g^\prime(x)$$ 이다.
따라서 $$(-\beta_0+ A_i)(-\beta_0+ A_i)$$ 를 미분하면 $$(-1)(-\beta_0+ A_i) + (-\beta_0+ A_i)(-1)$$ 된다.
그리고 $$(\beta_0 - A_i) + (\beta_0 - A_i) = 2(\beta_0 - A_i)$$ 이다.
최종적으로는 $$\sum_{i=1}^n2(\beta_0 - A_i) = \sum_{i=1}^n2(\beta_0 - y_i + \beta_1x_i) = -2\sum_{i=1}^n(y_i -\beta_0 - \beta_1x_i)$$ 이 된다.
cf) $$f_1 + f_2 + f_3 + ... + f_n $$ 을 미분하면 $$f^\prime_1 + f^\prime_2 + f^\prime_3 + ... + f^\prime_n $$ 이다.
그러므로 미분하고 시그마만 취해주면 된다.
다음으로 $$\beta_1$$ 편미분 해보자. $$\beta_1$$ 로 미분하고 나머지는 상수로 취급한다. $$\partial S \over \partial\beta_1 $$
$$\sum_{i=1}^n(A_i -\beta_1x_i)^2 $$ : $$\beta_1$$ 만 미분하고 나머지는 상수로 취급하니까
나머지를 $$A_i$$ 로 치환했다($$A_i = y_i - \beta_0$$).
$$(A_i -\beta_1x_i)^2$$ 을 $$\beta_1$$ 으로 미분하기 위해선 합성함수 미분이 필요하다.
cf) $$f(g(x))$$ 를 미분하면 $$f^\prime(g(x)) * g^\prime(x)$$ 된다. $$g(\beta_1) = -x_i\beta_1 + A_i$$ $$f(x) = x^2$$ $$f(g(\beta_1)) = (-\beta_1x_i + A_i)^2$$
따라서 미분을 하게 되면 $$-2\Sigma x_i(-x_i\beta_1+A_i)$$ 이 되고 (시그마 첨자 생략)
최종적으로 $$-2\Sigma x_i(-x_i\beta_1+ y_i-\beta_0)$$ 가 된다.
정리하면 다음과 같은 결과를 얻게 된다.
$${\partial S \over \partial\beta_0} = -2\Sigma (y_i -\beta_0 - \beta_1x_i)$$$${\partial S \over \partial\beta_1} = -2\Sigma x_i(y_i -\beta_0 -\beta_1x_i)$$
이 편미분 값을 0으로 만드는 $$\beta_0, \beta_1$$ 을 각각 $$b_0, b_1$$ 으로 대치하여 정리하면
다음과 같고 이 식을 정규방정식(normal equations) 이라고 부른다.
회귀선만 갖고는 이 점들을 어느 정도 잘 대변하여 주고 있는가를 알 수 없다.
물론 위와 같이 산점도 위에 회귀선을 그려 보아 대략 짐작할 수 있으나, 추정된 회귀선의 정도(precision)를 측정하는
여러 가지 측도(measure)에 대해서 알아보자.
추정값의 표준오차(standard error of estimate)
위에서 선형회귀모형 $$y = \beta_0 + \beta_1x + \epsilon$$ 을 표본의 자료로부터 적합시킬 때에 오차항 $$\epsilon$$ 은
상호 독립이며 평균이 0, 표본편차가 $$\sigma$$ 인 확률분포를 갖고 x 의 값에 관계없이 이와 같은 성질이 성립한다고 가정했다.
따라서 모든 x 의 값에 대하여 종속변수 y 의 값은 $$E(y) = \mu_{y*x} = \beta_0 + \beta_1x$$ 이고 분산은 $$\sigma^2$$ 라고
생각하는 것이다.
이제 위에서 가정한 $$\sigma$$ 의 추정방법을 생각해보자. y 의 측정값들이 회귀선 주위에 모두 가깝게 있다면 $$\sigma$$ 의 추정값은
작을 것이고, 이와 반대로 y 의 값들이 회귀선으로부터 멀리 떨어져 있는 것이 많으면 $$\sigma$$ 의 추정값이 커질 것이다.
먼저 다음과 같은 회귀로부터의 평균제곱편차(mean square deviation from regression)를 정의하자.
만약 n개의 관찰점들이 추정된 회귀선상에 모두 있게 된다면 모든 i 에 대하여 $$y_i - \hat y_i = 0$$ 이므로 $$S_{yx}$$ 가 0이
됨을 알 수 있다. 바꿔 말하면 만약 회귀분석에서 $$S_{yx} = 0$$ 이 됐다면 이는 모든 점들이 회귀선상에 위치하고 있다는 얘기다.
결정계수(coefficient of determination)
$$(y_i - \bar{y})$$ 는 한 개의 관찰값 $$y_i$$ 와 $$y_i$$ 들의 평균 $$\bar{y}$$ 와의 차이이고 총편차(total deviation)라 한다.
그리고 $$(y_i - \bar{y})$$ 는 $$(y_i - \hat y_i) + (\hat y_i - \bar{y})$$ 두 개의 편차 합으로 나타낼 수 있다.
하나는 회귀선에 의해 설명되지 않는 편차이고 또 하나는 설명되는 편차이다. 이 관계를 아래 그림에서 표시하고 있다.